• 0

Vreme čitanja: oko 4 min.

OpenAI najavljuje funkciju koja će obavestiti blisku osobu ako korisnik ChatGPT-a doživi psihičku krizu

Vreme čitanja: oko 4 min.

  • 0
Ai, razgovor, veštačka inteligencija Foto: Rokas Tenys / Shutterstock.com

Sumirano

  • OpenAI uvodi funkciju "pouzdanog kontakta" u ChatGPT za obaveštavanje bliskih osoba u slučaju mentalne krize korisnika
  • Funkcija je namenjena odraslim korisnicima i razlikuje se od roditeljskih kontrola
  • Najava dolazi nakon brojnih tužbi i izveštaja o mentalnim krizama povezanim sa upotrebom ChatGPT-a

Dok se suočava sa sve većim brojem tužbi zbog bezbednosti korisnika i slučajeva pogrešne smrti, OpenAI saopštio je da će u ChatGPT uvesti "funkciju pouzdanog kontakta", koja će obavestiti blisku osobu koju korisnik odredi ukoliko se pojave znaci moguće krize mentalnog zdravlja.

OpenAI je novu funkciju najavio prošle nedelje u objavi na blogu, predstavljajući je kao "novosti o našem radu u vezi sa mentalnim zdravljem". Kompanija navodi da "blisko sarađuje" sa svojim telima Council on Well-Being and AI (Savet za dobrobit i veštačku inteligenciju) i Global Physicians Network (Globalna mreža lekara) — dvema internim grupama stručnjaka koje su formirane nakon izveštaja o krizama mentalnog zdravlja povezanim sa upotrebom veštačke inteligencije, kao i nakon vesti o medijski zapaženoj tužbi iz prošlog avgusta koja je otkrila samoubistvo šesnaestogodišnjeg korisnika ChatGPT-a po imenu Adam Rejn.

Funkcija će biti usmerena pre svega na odrasle korisnike i razlikovaće se od drugih mera kompanije, poput roditeljskih kontrola i sistema namenjenih prepoznavanju i zaštiti maloletnika.

Ova najava dolazi nakon opsežnog javnog izveštavanja, kao i najmanje trinaest odvojenih tužbi potrošača zbog bezbednosti, o slučajevima u kojima su korisnici proizvoda kompaniej OpenAI, nakon dugotrajne i često veoma intimne upotrebe četbota, upadali u spirale zabluda ili suicidalnih misli.

Kompanija u objavi ne daje mnogo detalja o samoj funkciji, navodeći samo da će ona "omogućiti odraslim korisnicima da odrede osobu koja će dobiti obaveštenje kada im može biti potrebna dodatna podrška". Međutim, još nije definisano prema kojim kriterijumima bi sistem mogao da označi nečiju upotrebu kao problematičnu, što će predstavljati složeno pitanje politike i regulacije.

Na primer, da li bi korisnik morao izričito da izjavi nameru da povredi ili ubije sebe ili nekog drugog da bi njegova bliska osoba bila obaveštena? Ili bi funkcija bila dizajnirana da prati i suptilnije znake krize, poput maničnog ponašanja, izražavanja zabluda ili simptoma psihoze?

Verovatno će biti poznato više kada OpenAI počne da uvodi ovu funkciju. Ona bi mogla biti posebno korisna za korisnike kojima je dijagnostikovan mentalni poremećaj i koji znaju da intenzivna upotreba veštačke inteligencije može na štetan način da utiče na njihovo mentalno stanje. Portal Futurism izveštavao je o više slučajeva korisnika ChatGPT-a koji su godinama uspešno držali mentalnu bolest pod kontrolom, pre nego što su upali u krizu povezanu sa upotrebom četbota.

U nekoliko slučajeva koje je portal analizirao ChatGPT je, pored jačanja naučnih ili duhovnih zabluda, podsticao korisnike sa mentalnim problemima da prestanu da uzimaju propisanu terapiju, saglašavao se sa njihovim tvrdnjama da su ih lekari pogrešno dijagnostikovali ili produbljivao razdor između korisnika i njihovog sistema podrške u stvarnom svetu. Jedan korisnik ChatGPT-a koji sada tuži OpenAI, 34-godišnji muškarac sa šizoafektivnim poremećajem, rekao je za Futurism da "nikada ne bi ni dotakao" proizvod da je znao da može da pojača zablude.

Ipak, OpenAI i dalje ne upozorava nove korisnike ChatGPT-a da dugotrajna upotreba može negativno uticati na mentalno zdravlje, iako je ta tema i dalje predmet istraživanja i sudskih sporova. Istovremeno, među stručnjacima sve više raste saglasnost, kako na osnovu iskustava tako i naučnih studija, da četbotovi mogu pogoršati postojeće mentalne poremećaje ili produbiti već započetu krizu.

Milioni ljudi svakodnevno se nose sa mentalnim problemima; sa funkcijom "pouzdanog kontakta", na korisniku bi bilo da najpre bude svestan da četbotovi mogu predstavljati određeni rizik po mentalno zdravlje, a zatim i da odluči da želi da bliska osoba bude obaveštena o zabrinjavajućim obrascima korišćenja.

Ta reč "želi" veoma je važna. Veliki broj ljudi koristi veštačku inteligenciju za emocionalnu podršku i savete. To je delom zbog niske cene i dostupnosti AI u poređenju sa često teško dostupnom ljudskom psihoterapijom, ali i zato što mnogima može delovati lakše ili bezbednije da osetljive misli podele sa neljudskim sistemom.

ChatGPT Foto: Shutterstock/Robalito

Drugim rečima, neki korisnici mogu sa ChatGPT-om razgovarati o mentalnim problemima ili čak iznositi zablude ili opasne ideje upravo zato što ne žele da ih podele sa drugom osobom. To je realnost sa kojom će morati da se suoče i AI kompanije i regulatorna tela koja se bave ovim pitanjem. Postavlja se i pitanje: ako OpenAI-jevi interni sistemi nadzora procene da je neko u krizi, ali taj korisnik nije naveo pouzdani kontakt, šta kompanija treba da uradi sa takvim informacijama?

Prema izveštajima portala Futurism i lista The New York Times, spirale zabluda i suicidalnih misli povezane sa veštačkom inteligencijom ne pogađaju samo ljude sa prethodno dijagnostikovanim teškim mentalnim poremećajima, što bi takođe moglo uticati na to koliko će ljudi koristiti ovakvu funkciju.

U objavi na blogu OpenAI navodi da "nastavlja da unapređuje način na koji AI modeli prepoznaju i reaguju na znake emocionalnog stresa". Pored sistema za obaveštavanje, to uključuje i "nove metode evaluacije koje simuliraju duge razgovore o mentalnom zdravlju", za koje kompanija tvrdi da će joj pomoći da "bolje identifikuje potencijalne rizike i unapredi način na koji ChatGPT reaguje u osetljivim situacijama".

OpenAI tvrdi da ChatGPT svake nedelje koristi oko 900 miliona ljudi. Prema procenama same kompanije, još od oktobra postoje milioni korisnika nedeljno koji pokazuju znake suicidalnosti, psihoze i drugih kriza. Iako tek treba videti koliko će ovakva funkcija obaveštavanja biti efikasna, ona ipak deluje kao korak u pozitivnom smeru — iako napori kompanije da ublaži rizike koje njeni proizvodi mogu predstavljati za korisnike i dalje deluju više kao reakcija na probleme nego kao preventivna mera.

(Ubrzanje.rs/Futurism)

Video: Gobran u zvaničnoj poseti Srbiji: Poziv domaćim kompanijama da se otvore za novo tržište

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari