Ko je čovek koji ima moć da zaustavi veštačku inteligenciju? SAD mu dala odrešene ruke da sačuva čovečanstvo

Vreme čitanja: oko 3 min.

Foto: Tanjug/AP

Sumirano

  • Ziko Kolter predsedava Odborom za bezbednost i zaštitu startapa OpenAI
  • Kolter ima ovlašćenje da zaustavi puštanje nebezbednih AI sistema
  • Glavni izazovi za AI uključuju sajber bezbednost i pretnje mentalnom zdravlju

Iza svakog naprednog modela veštačke inteligencije stoji neko ko odlučuje da li će on biti bezbedan ili opasan, a jedan stručnjak za računar­stvo postao je ključni čuvar te bezbednosti. Ziko Kolter, profesor na američkom Univerzitetu Karnegi Melon, predsedava Odborom za bezbednost i zaštitu startapa OpenAI, četvoročlanom grupom ovlašćenom da zaustavi puštanje u upotrebu AI sistema koji se smatraju nebezbednima.

"Ovde uglavnom ne govorimo samo o egzistencijalnim problemima vezanim za veštačku inteligenciju. Govorimo o čitavom spektru pitanja bezbednosti i zaštite, kao i o kritičnim temama koje se javljaju kada počnemo da razgovaramo o široko korišćenim AI sistemima", objasnio je Kolter za agenciju Asošiejted pres (AP).

Njegova ovlašćenja obuhvataju tehnologiju koja se proteže od AI sistema sposobnih da stvore oružje za masovno uništenje do četbotova koji mogu da utiču na mentalno zdravlje.

Regulatorna kontrola postala je nužna

OpenAI je osnovan pre deset godina kao neprofitna istraživačka laboratorija sa ciljem razvoja veštačke inteligencije superiorne ljudima, u korist čovečanstva. Međutim, lansiranje Čet Dži-Pi-Ti-ja (ChatGPT) 2022. godine izazvalo je komercijalni bum u razvoju AI tehnologije, privukavši kritike da je OpenAI prebrzo izbacivao proizvode na tržište, nauštrb bezbednosti. Privremeno uklanjanje izvršnog direktora Sama Altmana 2023. godine dodatno je pojačalo zabrinutost zbog odstupanja od prvobitne misije, sada već AI korporacije.

Regulatorna kontrola dodatno se pojačala kada je OpenAI pokušao da restrukturira poslovanje. Glavni državni tužilac američke savezne države Kalifornije Rob Bonta i glavna državna tužiteljka savezne države Delaver Keti Dženings postavili su Kolterov nadzor kao ključni uslov za osnivanje nove korporacije OpenAI u javnom interesu, koja je tehnički pod kontrolom neprofitne fondacije OpenAI. Zauzvrat, OpenAI može lakše da prikuplja kapital i ostvaruje profit, ali isključivo pod nadzorom bezbednosti AI sistema.

Bezbednost pre profita

Dogovor obavezuje OpenAI da daje prednost bezbednosti u odnosu na finansijske interese. Kolter postaje član odbora neprofitne organizacije. Iako neće sedeti u odboru profitne korporacije, ima pravo da prisustvuje njenim sastancima i da ima uvid u sve informacije o bezbednosti veštačke inteligencije, prema memorandumu Roba Bonte. Kolter je jedina osoba, osim Bonte, koja je eksplicitno navedena u tom dokumentu.

Foto: Tanjug/AP

"Imamo mogućnost da zahtevamo odlaganje objavljivanja modela dok se ne ispune određene bezbednosne mere", rekao je Kolter, odbijajući da otkrije da li je njegov odbor ikada ranije koristio to ovlašćenje. U odboru se nalazi i bivši general američke vojske Pol Nakasone, nekadašnji komandant Američke sajber komande (USCYBERCOM).

Najvažniji budući izazovi za AI

Kolter je naveo nekoliko izazova koji dolaze: sajber bezbednost, ranjivosti u parametrima modela i nove pretnje karakteristične za naprednu veštačku inteligenciju. Upozorio je na raznovrsne rizike koje takvi sistemi nose.

"Omogućavaju li AI modeli zlonamernim korisnicima mnogo veće sposobnosti u stvaranju biološkog oružja ili izvođenju sajber napada?", naveo je Kolter kao primer i dodao da veštačka inteligencija može uticati i na mentalno zdravlje.

"Kako korišćenje ovih modela utiče na ljude i šta takva interakcija može da izazove?", dodao je pitanje.

Kolter je počeo da se bavi istraživanjem mašinskog učenja još kao brucoš na američkom Univerzitetu Džordžtaun.

"Kada sam počeo da radim u oblasti mašinskog učenja, to je bila ezoterična, vrlo specifična oblast. Zvali smo to mašinsko učenje jer niko nije želeo da koristi izraz veštačka inteligencija, taj pojam je delovao zastarelo, previše je obećavao, a premalo ispunjavao", rekao je.

Analitičari koji se bave AI-jem, poput Nejtana Kalvina iz američke neprofitne organizacije EncodeAI, izražavaju optimizam, ali uz dozu opreza.

"Mislim da on ima iskustvo koje je logično za ovu ulogu. Delu­je kao dobar izbor za vođenje ovog procesa", rekao je Kalvin, napominjući da značaj pomenutih mera zavisi od toga koliko će odbor OpenAI-ja zaista ozbiljno shvatiti sprovođenje bezbednosnih obaveza.

(Ubrzanje.rs/Zimo)