Tužbe za OpenAI zbog neprijavljivanja napadača pre masakra, znali su o čemu je četovao: Život izgubilo 6 đaka
Sumirano
- OpenAI je deaktivirao nalog napadača zbog uznemirujućih razgovora, ali nije obavestio vlasti, što je navodno bila poslovna odluka
- Porodice žrtava tvrde da je OpenAI omogućio napadaču da ponovo kreira nalog uprkos zabrani
- OpenAI se suočava sa kritikama i drugim tužbama zbog povezanosti ChatGPT-a sa nasilnim događajima
Sedam porodica, što je, prema rečima advokata, prvi talas od nekoliko desetina njih, tuži OpenAI, tvrdeći da kompanija nije pružila kanadskim vlastima informacije koje su mogle da spreče užasnu pucnjavu u školi u ruralnom rudarskom gradu Tambler Ridž u Britanskoj Kolumbiji, uprkos tome što je unapred znala za uznemirujuće razgovore koje je napadač vodio sa četbotom. Tužbe takođe tvrde da je OpenAI obmanuo javnost u vezi sa koracima za koje tvrdi da ih je preduzeo kako bi sprečio napadača da koristi Čet Dži-Pi-Ti (ChatGPT) za razgovore o masovnom nasilju.
Početkom februara, osamnaestogodišnja Džesi van Rotselar ubila je svoju majku i mlađeg polubrata pre nego što je otišla u srednju školu u Tambler Ridžu, gde je otvorila vatru na učenike i nastavnike koristeći modifikovanu pušku. Petoro učenika, svi starosti između 12 i 13 godina, i jedan nastavnik su ubijeni. Još dvadeset sedam ljudi je ranjeno, neki veoma teško. Nekoliko roditelja bilo je primorano da identifikuje svoju decu po odeći jer su oštećenja na mladim telima dece bila ekstremna. Napadač je izvršio samoubistvo.
Kao i milioni drugih ljudi, Van Rotselarova je bila korisnik ChatGPT. Krajem februara, izveštaj Vol strit džornala otkrio je da su u junu 2025. godine, mesecima pre same pucnjave, alati OpenAI za automatsku moderaciju označili nalog Van Rotselarove zbog eksplicitnih razgovora o masovnom nasilju. Zaposleni u kompaniji zaduženi za pregled sadržaja bili su uznemireni ovim materijalom i — uvereni da interakcije Van Rotselarove sa ChatGPT predstavljaju kredibilnu i neposrednu pretnju po tuđe živote — pozvali su rukovodioce OpenAI-ja da upozore kanadske organe reda.
Nakon debate u kojoj je navodno učestvovalo desetak zaposlenih, lideri OpenAI-ja odlučili su da ne kažu ništa, već su umesto toga deaktivirali nalog Van Rotselarove.
Podnete u Kaliforniji, tužbe — koje opisuju ChatGPT kao "saučesnika" u školskom masakru — tvrde da bi lokalni zvaničnici intervenisali pre nego što bude prekasno da je OpenAI obavestio organe reda. Neaktivnost OpenAI-ja, kako se navodi u tužbama, bila je poslovna odluka podstaknuta potencijalnom budućom odgovornošću koju bi prijavljivanje problematičnih interakcija poput onih Van Rotselarove izazvalo, kao i time kako bi ta odgovornost mogla da utiče na trenutni zamah kompanije ka inicijalnoj javnoj ponudi deonica (IPO).
Među tužiteljima su porodice svih žrtava ubijenih u školi: trinaestogodišnjeg Ezekila Šofilda, dvanaestogodišnje Zoi Benoa, dvanaestogodišnje Tikarije "Tiki" Lampert, dvanaestogodišnjeg Abela Mvanse Mlađeg, dvanaestogodišnje Kajli Smit i tridesetdevetogodišnje pomoćnice u nastavi Šande Aviugane-Dirand. Među tužiteljima je i porodica Maje Gebele, dvanaestogodišnjakinje koja je pogođena sa tri metka u glavu i vrat. Gebela je preživela, ali sa "katastrofalnim" povredama mozga i nalazi se u kritičnom stanju. (U martu je porodica Gebele podnela tužbu protiv OpenAI-ja u Kanadi; ova nova tužba zamenjuje njihovu prvobitnu prijavu.)
Porodice traže da OpenAI snosi "odgovornost" zbog toga što je "dizajnirao opasan proizvod, ignorisao upozorenja sopstvenog tima za bezbednost, odbio da obavesti vlasti kada je znao da napadač planira masovni napad, omogućio mu povratak na platformu nakon deaktivacije naloga", navodi se zajednički u tužbama, "i izabrao profit umesto života dece Tambler Ridža."
Kao što je OpenAI potvrdio u februaru, nalog Van Rotselarove deaktiviran je u junu 2025. godine zbog razgovora koji su bili toliko ekstremni da su pokrenuli debatu među visokopozicioniranim osobljem u jednoj od najpopularnijih svetskih kompanija za veštačku inteligenciju.
Nakon deaktivacije, kako se ističe u tužbama, Van Rotselarova je brzo napravila novi nalog. Uprkos postojanju ovog drugog naloga, OpenAI je nastavio da naziva deaktivaciju naloga Van Rotselarove "zabranom pristupa", što je termin koji je generalni direktor OpenAI-ja Sem Altman ponovio nedavno, u petak, kada je uputio javno pismo izvinjenja građanima Tambler Ridža.
"Duboko mi je žao što nismo obavestili organe reda o nalogu kojem je zabranjen pristup u junu", napisao je Altman u pismu. "Iako znam da reči nikada ne mogu biti dovoljne, verujem da je izvinjenje neophodno kako bismo priznali štetu i nepovratan gubitak koji je vaša zajednica pretrpela."
Kompanija je takođe opisala to što je napadač napravio drugi nalog kao izbegavanje njenih zaštitnih mera, za koje tvrdi da su dizajnirane da spreče povratnike da urade upravo ono što je Van Rotselarova uradila: da otvore novi nalog kada se prethodni deaktivira zbog kršenja bezbednosnih pravila.
Prema tužbama, međutim, Van Rotselarova nije "izbegla" zaštitne mere OpenAI-ja — što je reč koja sugeriše da je primenila neki nivo složenog lukavstva kako bi zaobišla barijere. Umesto toga, u tužbama se navodi da je ubica jednostavno sledila uputstva same kompanije.
Kada se nalog korisnika deaktivira, kako se navodi u tužbi, korisnička služba OpenAI-ja savetuje korisnike da mogu da "naprave novi nalog koristeći istu imejl adresu nakon što prođe 30 dana od brisanja". Ali ako korisnik "ne želi da čeka", kompanija nastavlja sa objašnjenjem da "ima opciju da se odmah registruje koristeći alternativnu imejl adresu".
Poruka čak ide toliko daleko da savetuje korisnike kako da naprave imejl alijas u tu svrhu.
"Iako će vaš provajder elektronske pošte verovatno tretirati obe adrese isto", nastavlja se u poruci, "naš sistem će prepoznati podadresu kao novi nalog."
Drugim rečima, to što je Van Rotselarova naizgled bez ikakvih poteškoća napravila drugi nalog, koji je koristio njeno pravo ime, što je OpenAI izgleda priznao u februarskom pismu upućenom kanadskom ministru za veštačku inteligenciju, ne zvuči baš kao "zabrana pristupa" o kojoj je OpenAI javno govorio.
Kako se navodi u tužbama, "nikakve zaštitne mere nisu ni postojale da bi se izbegle".
"Napadač je jednostavno pratio uputstva samog OpenAI-ja kako bi napravio novi nalog nakon što mu je pristup zabranjen. 'Zaštitne mere' na koje je OpenAI ukazao nakon napada nisu zakazale; one nisu ni postojale", piše u tužbama. "OpenAI je lagao jer je istina gora: kompanija ne zabranjuje pristup korisnicima zbog nasilnih aktivnosti. Ona im govori kako da se vrate."
Uprkos Altmanovom nedavnom izvinjenju, OpenAI uglavnom brani svoju odluku da ne obavesti organe reda, tvrdeći da njegovi lideri, za razliku od zabrinutog tima za bezbednost, nisu verovali da istorija ćaskanja napadača ukazuje na neposrednu pretnju. Kompanija je takođe ukazala na zabrinutost za privatnost korisnika.
Međutim, i dalje ostaje nejasno kako tačno OpenAI procenjuje neposredan rizik ili odsustvo istog. Samoregulisana industrija veštačke inteligencije nema nikakve propisane, pa čak ni neformalno usaglašene granice za prijavljivanje, čak i kada je reč o potencijalnim događajima sa masovnim žrtvama. Kako je Vajerd izvestio ranije ovog meseca, OpenAI čak podržava zakon u Ilinoisu koji bi ga zaštitio od odgovornosti u događajima sa masovnim žrtvama povezanim sa veštačkom inteligencijom u kojima je ubijeno ili povređeno 100 ili više ljudi.
OpenAI je odbio da odgovori na zahtev Futurizma za komentar.
Slučajevi iz Tambler Ridža dolaze u trenutku kada se OpenAI suočava sa preispitivanjem uloge ChatGPT u još jednoj masovnoj pucnjavi. Istorijat ćaskanja do kojeg je došao Florida fniks pokazuje da je dvadesetogodišnji student Državnog univerziteta Floride (FSU), Finiks Ikner, koji je ubio dvoje odraslih i ranio sedmoro ljudi tokom krvavog pira u aprilu 2025. godine na kampusu ovog univerziteta, opsesivno komunicirao sa ChatGPT-om u periodu koji je prethodio pucnjavi.
U ovim uznemirujućim razgovorima, Ikner je sa četbotom detaljno opisivao zlostavljanje dece, nazivao sebe "incelom" i "ružnim", pitao se da li je bombaš iz Oklahoma Sitija bio "u pravu" i raspravljao o mogućoj pucnjavi na svom univerzitetu. Samo nekoliko minuta pre nego što je otvorio vatru, pitao je bota kako da isključi kočnicu na jednom od svojih oružja.
Masovne pucnjave nisu jedina vrsta nasilja povezana sa upotrebom ChatGPT-a. Ovaj široko korišćeni četbot takođe je igrao zabrinjavajuću ulogu u porodičnom nasilju i uhođenju, i nastavlja da se pojavljuje u slučajevima ubistava, gde istorijati ćaskanja otkrivaju da je veštačka inteligencija bila voljan sagovornik u sve gorim opsesijama korisnika prema drugim, stvarnim ljudima.
OpenAI se takođe suočava sa više od deset tužbi korisnika veštačke inteligencije ili članova njihovih porodica koji tvrde da je ChatGPTuvukao korisnike u deluzivne ili suicidalne spirale koje su im nanele psihološku štetu, narušile ugled, dovele ih do finansijske propasti, pa čak i do samoubistva.
Detalji masakra u Tambler Ridžu su izuzetno bolni. Kako tužbe jasno pokazuju kroz užasavajuće pojedinosti, žrtve su umrle na strašan način. Maja Gebela, devojčica koja je upucana dok je pokušavala da zaključa vrata kako bi sprečila napadača da uđe, verovatno će živeti sa trajnim invaliditetom ukoliko preživi.
Preživela deca Tambler Ridža, u međuvremenu, pohađaju nastavu u montažnim kontejnerima, dok prazna zgrada srednje škole u njihovom ruralnom rudarskom gradu čeka rušenje.
(Ubrzanje.rs/Futurism)