• 0

Vreme čitanja: oko 4 min.

Osam železničkih stanica koristilo AI da "čita" emocije sa lica putnika: Dokumenta otkrivaju detalje nadzora

Vreme čitanja: oko 4 min.

Jedna stanica trebalo je da isproba sistem za otkrivanje "rizika od samoubistva"

  • 0
CCTV, nadzor, kamera Foto: Shutterstock/Jade ThaiCatwalk
  • Jedan od ciljeva je navodno i povećanje bezbednosti građana 

  • Dokumenta pokazuju da je najveći cilj optimizacija targetovanja građana u marketinške svrhe

  • Protivnici studije ukazuju na opasnosti koje proizilaze iz normalizacije korišćenja AI u nadzoru građana

Amazonov softver verovatno je skenirao lica hiljadama ljudi koji su hvatali vozove u Ujedinjenom Kraljevstvu u okviru ispitivanja veštačke inteligencije, otkrivaju novi dokumenti. Sistem za prepoznavanje slika je korišćen za predviđanje starosti, pola i potencijalnih emocija putnika - uz sugestiju da bi se podaci mogli koristiti u marketingške svrhe u budućnosti.

Tokom protekle dve godine, osam železničkih stanica širom Velike Britanije, uključujući velike stanice kao što su londonski Juston i Vaterlu, Mančester Pikadili i druge manje stanice, testiralo je tehnologiju nadzora veštačke inteligencije pomoću CCTV kamera sa ciljem da upozori osoblje na bezbednosne incidente i potencijalno smanjujući određene vrste zločina.

Opsežna ispitivanja, koje nadgleda telo za železničku infrastrukturu Netvork Rail, koristila su prepoznavanje objekata, vrstu mašinskog učenja koja može da identifikuje stavke u video fidovima, za otkrivanje prestupnika, zatim za nadgledanje i predviđanje prenatrpanosti perona, identifikaciju antisocijalnog ponašanja (trčanje, vikanje, skejtbord, pušenje) i uočavanje potencijalnih kradljivaca bicikala. Odvojena ispitivanja su koristila bežične senzore za otkrivanje klizavih podova, punih kanti i odvoda koji se mogu preliti.

Obim ovih ispitivanja sa veštačkom inteligencijom (AI), čiji su elementi ranije prijavljeni, otkriven je u dokumentima dobijenim kao odgovor na zahtev za informacije od javnog značaj od strane grupe za građanske slobode Big Brader Voč (Big Brother Watch)

"Uvođenje i normalizacija nadzora veštačke inteligencije u ovim javnim prostorima, bez mnogo konsultacija i razgovora, prilično je zabrinjavajući korak", kaže Džejk Hurfurt, šef istraživanja i istraga pri ovoj grupi.

AI ispitivanja koristila su kombinaciju "pametnih" CCTV kamera koje mogu da detektuju objekte ili pokrete sa slika koje snimaju i starijih kamera koje imaju svoje video fidove povezane sa analizom zasnovanom na klaudu. Između pet i sedam kamera ili senzora je bilo uključeno na svakoj stanici, stoji u dokumentima, koji datiraju iz aprila 2023. godine.

Jedna tabela navodi 50 mogućih slučajeva upotrebe AI, iako se čini da nisu svi korišćeni u testovima. Jedna stanica, London Juston, trebalo je da isproba sistem za otkrivanje "rizika od samoubistva", ali dokumenta pokazuju da je kamera otkazala i da osoblje nije videlo potrebu da je zameni jer je u pitanju krajnja stanica.

Hurfurt kaže da je element ispitivanja koji najviše zabrinjava bio fokusiran na "demografiju putnika". Prema dokumentima, ova postavka bi mogla da koristi slike sa kamera kako bi proizvela statističku analizu starosnog raspona i demografskog odnosa muškaraca i žena a takođe je u stanju da "analizira emocije" kao što su "srećan, tužan i ljut".

Slike su snimljene kada su ljudi prešli "virtuelni okidač" u blizini barijera za karte i potom su poslate na analizu pomoću Amazonovog sistema Rekognition, koji omogućava analizu lica i objekata. To bi moglo da omogući merenje "zadovoljstva" putnika, kaže se u dokumentima, uz napomenu da bi "ovi podaci mogli da se iskoriste za maksimalni prihod od reklama i maloprodaje".

Stručnjaci u oblasti veštačke inteligencije često upozoravaju da je korišćenje tehnologije za otkrivanje emocija nepouzdano, a neki kažu da bi tu tehnologiju trebalo zabraniti zbog poteškoća da se utvrdi kako se neko oseća na osnovu audio ili video snimka. U oktobru 2022. godine, britanski regulator podataka, Kancelarija komesara za informacije, dao je izjavu za javnost u kojoj se upozorava na upotrebu analize emocija, rekavši da su tehnologije "nezrele" i "možda još uvek ne rade, i zapravo nikada i neće".

Nejasno je koliko je široko bila rasprostranjena analiza detekcije emocija, dok dokumenti povremeno govore da slučaj upotrebe treba opreznije gledati, a izveštaji sa stanica govore da je "nemoguće potvrditi tačnost" podataka. Međutim, Gregori Butler, izvršni direktor kompanije za analizu podataka i računarsku viziju Purple Transform, koja je radila sa Netvork Rail-om na ispitivanjima, kaže da je ta mogućnost ukinuta tokom testova i da nijedna slika nije bila sačuvana kada je bila aktivna.

Dok dokumenti detaljno navode neke elemente ispitivanja, stručnjaci za privatnost kažu da su zabrinuti zbog ukupnog nedostatka transparentnosti i debate o upotrebi veštačke inteligencije u javnim prostorima.

Istovremeno, slični sistemi za AI nadzor koji koriste tehnologiju za praćenje gužve sve više se koriste širom sveta. Tokom Olimpijskih igara u Parizu u Francuskoj kasnije ove godine, AI video nadzor će posmatrati hiljade ljudi i pokušati da otkrije talase gužve, upotrebu oružja i napuštene objekte, piše Vajerd.

"Sistemi koji ne identifikuju ljude bolji su od onih koji to rade, ali ja brinem o potencijalnim negativnim posledicama", kaže Karisa Veliz, vanredni profesor psihologije na Institutu za etiku u veštačkoj inteligenciji na Univerzitetu u Oksfordu. Veliz ukazuje na slična ispitivanja veštačke inteligencije u londonskom metrou koja su u početku zamagljivala lica ljudi koji su možda izbegavali da plate kartu za prevoz, ali je potom promenila pristup, koristeći jasne fotografije i čuvajući slike duže nego što je prvobitno planirano.

"Postoji veoma instinktivna želja za proširenjem nadzora. Ljudska bića vole da vide više, vide dalje. Ali nadzor vodi ka kontroli, a kontrola do gubitka slobode koji preti liberalnim demokratijama", kaže Veliz.

(Ubrzanje.rs)

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari