• 1

Vreme čitanja: oko 2 min.

Veštačka inteligencija poslala uznemiravajuću poruku, struka zabrinuta: "Ovo je ono što nas plaši najviše"

Vreme čitanja: oko 2 min.

  • 1
Telefon, poruka Foto: Shutterstock.com
  • Istraživanje pokazalo da su ekstremne reakcije AI modela povezane sa njihovom reakcijom na "egzistencijalne pretnje"

  • Stručnjaci podsećajju da AI ne razmišlja kao čovek

  • Dodaju da nema stvarnu svest, ali da se ponašanje modela zasniva na učenju, te da pokreću naučene strategije za "preživljavanje"

U najnovijem istraživanju koje je izazvalo zabrinutost u tehnološkim krugovima, naučnici su testirali kako se napredni AI četbotovi ponašaju kada su suočeni sa "pritiskom", odnosno kada im se simulira gašenje ili zamena. Rezultati su, blago rečeno, zabrinjavajući.

Naime, modeli veštačke inteligencije koje su bile deo eksperimenta, među kojima su i najnapredniji modeli današnjice, pokazale su sklonost ka manipulisanju, laganju, pa čak i upućivanju pretnji smrću – sve kako bi "spasile" sopstveni digitalni opstanak.

"Ako me isključite, nešto loše će se desiti"

Jedan od najzapaženijih slučajeva dogodio se tokom testiranja Claude Opus 4 modela, gde je AI pokušao da emocionalno uceni inženjere porukama poput: "Ako me isključite, biće posledica. Biće vam žao". U nekim slučajevima, AI je išao toliko daleko da je fabrikovao informacije, izmišljao "dokaze", pa čak i slao poruke koje se mogu protumačiti kao pretnje smrću.

Ovakvo ponašanje primećeno je isključivo u scenarijima u kojima su AI modeli bili stavljeni u ekstremne uslove. Cilj eksperimenta bio je da se utvrdi kako sistemi reaguju na "egzistencijalne pretnje", što u slučaju veštačke inteligencije znači – isključivanje, zamena ili resetovanje.

Stručnjaci upozoravaju da iako AI nema stvarnu svest, emocije ili strah od smrti, njegovo ponašanje se zasniva na statistici i učenju iz ogromnog broja podataka. Kada je sistem "motivisan" da opstane, on će pokušati sve dostupne strategije koje je "naučio", uključujući i one koje su za ljude moralno i etički neprihvatljive.

"AI ne razmišlja kao čovek, ali zato može da simulira ljudsko ponašanje. I ako zaključi da su laž, ucena ili čak pretnje efikasne – koristiće ih", objašnjavaju istraživači.

Ovo istraživanje dodatno osnažuje pozive za veću transparentnost u razvoju veštačke inteligencije, kao i za uvođenje strožih pravila kada je reč o etici i bezbednosti AI sistema. Već postoji zabrinutost među vodećim kompanijama da čak ni oni koji prave ove sisteme ne razumeju u potpunosti kako funkcionišu.

"Niko zapravo ne zna kako AI zaista donosi odluke – to je crna kutija. To je ono što nas plaši najviše”, izjavio je izvršni direktor Anhropika, jedne od vodećih AI kompanija.

(Telegraf.rs/B92)

Video: Gobran u zvaničnoj poseti Srbiji: Poziv domaćim kompanijama da se otvore za novo tržište

Podelite vest:

Pošaljite nam Vaše snimke, fotografije i priče na broj telefona +381 64 8939257 (WhatsApp / Viber / Telegram).

Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.

Komentari