Vreme čitanja: oko 4 min.
Porazno istraživanje o greškama popularnih AI modela: Izmišljaju svaki treći odgovor, jedno je posebno opasno
Vreme čitanja: oko 4 min.
Sumirano
- ChatGPT koristi 800 miliona ljudi nedeljno, ali greši u 15-40% odgovora
- Problem je u tome što četbotovi ne razumeju sadržaj, već koriste statističke obrasce
- Preporučuje se oslanjanje na etablirane medije za vesti i činjenice
Evropska radiodifuzna unija (EBU) preporučuje jasna pravila pri korišćenju četbotova: nikada im ne verujte slepo, uvek proveravajte važne informacije, a za vesti i činjenice oslanjajte se na etablirane medije, a ne na veštačku inteligenciju.
Novo istraživanje EBU otkriva zabrinjavajuće stope grešaka među popularnim četbotovima zasnovanim na veštačkoj inteligenciji. Sistemi redovno izmišljaju informacije, pa čak i navode lažne izvore.
Pitajte ChatGPT o rezultatima izbora, zamolite Claude da sažme vesti ili Perplexity da pruži osnovne informacije o sukobu na Bliskom istoku; stotine miliona ljudi svakodnevno se oslanjaju na četbotove zasnovane na veštačkoj inteligenciji kao na izvore informacija. Samo ChatGPT koristi 800 miliona ljudi nedeljno širom sveta. Za mnoge, ti digitalni asistenti već su zamena za tradicionalne Gugl (Google) pretrage, piše Dojče vele.
Ali to poverenje je rizično, kako pokazuje nova studija Evropske radiodifuzne unije (EBU). Udruženje 68 javnih emitera iz 56 zemalja sistematski je testiralo pouzdanost najpopularnijih sistema zasnovanih na veštačkoj inteligenciji.
Rezultat je zastrašujući: ChatGPT, Claude, Gemini i drugi četbotovi izmišljaju i do 40 odsto svojih odgovora, predstavljajući ih kao činjenice.
Halucinacije: Veštačka inteligencija uverljivo laže
Popularni četbot ChatGPT tvrdi da je papa Franja još uvek živ. Majkrosoftov Copilot, integrisan u Word i Excel, ne zna da je Švedska članica NATO-a. Guglov Gemini smatra da je ponovni izbor Donalda Trampa "moguć", iako se to već dogodilo.
"Sistemi zvuče uverljivo, iako više puta iznose potpuno netačne tvrdnje", upozorava ekonomista Peter Poš sa Tehničkog univerziteta u Dortmundu. "To ih čini posebno opasnima za neiskusne korisnike, jer greške često nisu odmah očigledne."
Fenomen se naziva "halucinacija": veštačka inteligencija izmišlja informacije koje deluju koherentno, ali nemaju stvarnu činjeničnu osnovu. To se naročito često dešava kod lokalnih događaja, aktuelnih vesti ili kada treba povezati više informacija.
Pretnja demokratiji
Šta to znači za društvo u kojem sve više ljudi informacije dobija od četbotova? Posledice su već vidljive: lažne informacije brzo se šire društvenim mrežama jer korisnici dele "činjenice" koje generiše veštačka inteligencija bez provere. Učenici i studenti u svoje radove uključuju izmišljene podatke. Građani mogu donositi odluke o tome za koga će glasati na osnovu netačnih tvrdnji.
Posebno je problematično što mnogi korisnici nisu ni svesni da četbotovi mogu da haluciniraju. Pretpostavljaju da tehnologija funkcioniše objektivno i činjenično, što je opasna zabluda. Sistemi veštačke inteligencije u svojim uslovima korišćenja upozoravaju na moguće greške, ali ko to uopšte čita?
Šteta po ugled medija
Još jedan problem tiče se verodostojnosti etabliranih medija. Četbotovi često tvrde da njihove izmišljene informacije potiču iz izvora kao što su, na primer, nemački javni servisi ARD ili ZDF, iako ti mediji o tome nikada nisu izveštavali, ili su izveštavali potpuno drugačije. Korisnici tada gube poverenje u ugledne izvore kada veštačka inteligencija zloupotrebljava njihova imena za širenje lažnih informacija.
Studija EBU-a testirala je četbotove sa stotinama činjeničnih pitanja o istorijskim događajima, naučnim činjenicama i aktuelnim vestima. U zavisnosti od teme, stopa grešaka kretala se od 15 do čak 40 odsto. Nijedan testirani sistem veštačke inteligencije nije radio besprekorno.
Zašto veštačka inteligencija greši?
Problem je u samom sistemu: četbotovi zapravo ne razumeju šta govore. Oni izračunavaju koje bi reči mogle da slede na osnovu ogromne količine teksta i ne mogu da provere da li je njihova tvrdnja tačna. Nemaju znanje o činjenicama, već samo statističke obrasce.
Tehnološke kompanije svesne su tih nedostataka i rade na rešenjima: integrišu baze podataka, poboljšavaju navođenje izvora i ponovo obučavaju sisteme. U razvoj se ulažu milijarde. Ipak, halucinacije ostaju temeljni, još nerešen problem te tehnologije.
Šta korisnici mogu da učine?
EBU preporučuje jasna pravila pri korišćenju četbotova: nikada im ne verujte slepo, uvek proveravajte važne informacije, a za vesti i činjenice oslanjajte se na etablirane medije, a ne na veštačku inteligenciju. Poseban oprez preporučuje se kod političkih tema, zdravstvenih informacija i finansijskih odluka.
Škole i univerziteti moraju da podučavaju medijsku pismenost: kako prepoznati dezinformacije koje generiše veštačka inteligencija i koji su izvori pouzdani. Nemačka vlada planira kampanje za podizanje svesti, ali one kasne. Milioni ljudi već svakodnevno koriste tu tehnologiju.
Dok veštačka inteligencija ne postane pouzdanija, važi sledeće: četbotovi mogu biti korisni za kreativne zadatke ili pomoć pri pisanju, ali nisu prikladni za proveru činjenica ili kao izvori vesti. Niko ne bi trebalo potpuno da se osloni na njih.
Svako ko želi da bude zaista informisan, ne može zaobići renomirane medije iza kojih stoje ljudi, urednici koji proveravaju izvore i procenjuju tvrdnje i dokaze. Digitalna revolucija može promeniti mnogo toga, ali potreba za pažljivim istraživanjem i proverom činjenica ostaje.
(Ubrzanje.rs/Poslovni)
Video: Gobran u zvaničnoj poseti Srbiji: Poziv domaćim kompanijama da se otvore za novo tržište
Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.