• 0

Vreme čitanja: oko 3 min.

Upozorenje AI stručnjaka: Četbotovi pali na testu, zaboravite na ideju da upravljaju nuklearnim elektranama

Vreme čitanja: oko 3 min.

  • 0
AI agent, veštačka inteligencija Foto: Shutterstock.com

Sumirano

  • Studija tvrdi da veliki jezički modeli ne mogu izvršavati složene zadatke iznad određenog nivoa
  • Višal Sika, autor studije, ima iskustvo u veštačkoj inteligenciji i studirao je kod Džona Makartija
  • Dodaju da su AI modeli skloni "halucinacijama" i nikada neće dostići 100% tačnost

Studija stara nekoliko meseci, ali do sada uglavnom zanemarena, koja je nedavno predstavljena u časopisu Wired, tvrdi da matematički dokazuje da su veliki jezički modeli "nesposobni da izvršavaju računske i agentske zadatke iznad određenog nivoa složenosti" - pri čemu je taj nivo složenosti, što je ključno, prilično nizak.

Rad, koji još nije prošao recenzentski postupak, potpisuju Višal Sika, bivši tehnički direktor nemačkog softverskog giganta SAP, i njegov sin Varin Sika. Stariji Sika se itekako razume u veštačku inteligenciju: studirao je kod Džona Makartija, dobitnika Tjuringove nagrade i informatičara koji je doslovno utemeljio čitavo polje veštačke inteligencije i čak pomogao u skovanju samog termina.

"Ne postoji način da oni budu pouzdani", rekao je Višal Sika za Wired, prenosi Futurism.

Na pitanje novinara, Sika se takođe složio da bi trebalo zaboraviti na ideju da AI agenti upravljaju nuklearnim elektranama i na druga bombastična obećanja koja zagovornici veštačke inteligencije često iznose.

Ako se zanemari retorika koju tehnološki direktori iznose sa pozornica i obrati pažnja na ono što otkrivaju istraživači koji rade za te iste kompanije, postaje jasno da čak i sama AI industrija priznaje da ova tehnologija ima određena fundamentalna ograničenja ugrađena u svoju arhitekturu.

Tako su, na primer, naučnici iz OpenAI-ja u septembru priznali da su AI "halucinacije", u kojima veliki jezički modeli samouvereno izmišljaju činjenice, i dalje raširen problem čak i u sve naprednijim sistemima, kao i da tačnost modela "nikada" neće dostići 100 odsto.

To, naizgled, ozbiljno dovodi u pitanje izvodljivost takozvanih AI agenata - modela dizajniranih da autonomno obavljaju zadatke bez ljudske intervencije - koje je industrija prošle godine jednoglasno proglasila svojom sledećom velikom prekretnicom. Neke kompanije koje su prihvatile AI agente kako bi smanjile broj zaposlenih ubrzo su shvatile da ti agenti nisu ni približno dovoljno dobri da zamene ljude koji su otpušteni, između ostalog zato što prečesto "haluciniraju" i jedva uspevaju da završe zadatke koji su im povereni.

Lideri u oblasti veštačke inteligencije insistiraju na tome da se snažnijim spoljašnjim zaštitnim mehanizmima mogu filtrirati halucinacije. Iako će modeli možda uvek biti skloni takvim greškama, ako one postanu dovoljno retke, kompanije će ih vremenom početi smatrati dovoljno pouzdanim da im poveravaju zadatke koje su ranije obavljali ljudi. U istom radu u kojem su istraživači OpenAI-ja priznali da modeli nikada neće dostići savršenu tačnost, odbacili su i ideju da su halucinacije "neizbežne“, uz obrazloženje da veliki jezički modeli "mogu da se uzdrže kada nisu sigurni". (Uprkos tome, teško je pronaći ijedan popularan četbot koji to zaista čini - gotovo sigurno zato što bi takvo ponašanje učinilo četbotove manje impresivnim i manje zanimljivim za korišćenje.)

Iako čvrsto veruje da veliki jezički modeli imaju čvrst gornji limit, Sika se slaže sa predstavnicima AI industrije koji tvrde da se halucinacije mogu držati pod kontrolom.

"Naš rad kaže da čisti veliki jezički modeli imaju ova urođena ograničenja, ali je istovremeno tačno da se oko njih mogu izgraditi dodatne komponente koje ta ograničenja prevazilaze", rekao je Sika za Wired.

(Ubrzanje.rs/Futurism)

Video: Gobran u zvaničnoj poseti Srbiji: Poziv domaćim kompanijama da se otvore za novo tržište

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari