Groznica za veštačkom inteligencijom u vojsci vodi u katastrofu: Algoritamske greške otvaraju vrata smrti

Vreme čitanja: oko 2 min.

Foto: Tanjug/AP

Sumirano

  • Postoji opasnost od algoritamskih grešaka koje mogu dovesti do civilnih žrtava i narušavanja građanskih sloboda
  • Ljudski nadzor nije uvek dovoljan za sprečavanje grešaka AI sistema
  • Napadi u Iranu koristeći AI podatke rezultirali su velikim brojem civilnih žrtava

Američka vojska ima problem sa preteranim entuzijazmom za veštačku inteligenciju, a ako zvaničnici ne budu oprezni, to bi moglo da dovede do civilne katastrofe.

Tako se navodi u novoj analizi koju je objavio Brennan Center for Justice, istraživački centar za pravo i javne politike, u kojoj se tvrdi da ubrzano uvođenje nedovoljno testirane veštačke inteligencije u američkoj vojsci može dovesti do "nebezbednih sistema" koji bi izazvali "prekomernu štetu po civile i narušili privatnost i građanske slobode".

Analitičari navode da je za 2026. godinu Američki Stejt Department zatražio budžet od 13,4 milijarde dolara namenjen za "autonomiju i autonomne sisteme". Ti milijarde dolara poreskih obveznika nisu namenjene samo za ugradnju AI u oružane platforme, već i za njenu primenu u nadzoru, održavanju, lancima snabdevanja i administrativnim operacijama.

Kako se ova široka integracija veštačke inteligencije ubrzava, rastu i rizici — algoritamske greške mogu otvoriti vrata neselektivnim ubistvima, pogrešnim hapšenjima i opštem urušavanju građanskih sloboda pod rukom najmoćnije vojske na svetu. Analitičari posebno naglašavaju da ni ljudski nadzor nije garancija bezbednosti kada je reč o rizičnim AI sistemima.

"Ovi propusti mogu se dogoditi čak i kada su ljudi uključeni u proces", navodi se u analizi. "Od komandanata i operatera oružanih sistema obično se očekuje da nezavisno provere i potvrde mete koje je generisala veštačka inteligencija. U praksi, međutim, oni mogu postati previše skloni da se oslone na preporuke algoritama."

"Osim toga, veće oslanjanje na veštačku inteligenciju svodi ljudske živote na tačke i podatke na ekranu, što može učiniti vojnike manje osetljivim na čin ubijanja i razaranja", dodaje se u izveštaju.

Dario Amodei, CEO startapa Anthropic, tvorca AI modela Klod (Claude AI) / Foto: FABRICE COFFRINI / AFP , Middle East Images/ABACA / Abaca Press / Profimedia

Gubitak života i građanskih sloboda, međutim, već osećaju ljudi koji se nađu na pogrešnoj strani AI arsenala. Prema pisanju The Wall Street Journal, američka vojska napala je više od 3.000 pojedinačnih ciljeva u Iranu koristeći obaveštajne podatke prikupljene uz pomoć sistema Klod (Claude AI) model kompanije Anthropic.

Do 6. marta u tim napadima poginulo je najmanje 1.332 iranskih civila, uključujući više od 175 učenika osnovne škole i zaposlenih koji su stradali u dvostrukom udaru na jednu žensku školu. Iako još nije poznato da li je veštačka inteligencija bila uključena u odluku da se napadne upravo ta lokacija, jasno je da je groznica za veštačkom inteligencijom u vojsci već povezana sa velikim brojem žrtava, a bez značajnih promena gotovo je sigurno da će ih biti još mnogo.

(Ubrzanje.rs/Futurism)