AI pokazao kako se zarađuje ne mareći za pravila: Doneo daleko najviše novca, svaka odluka gora od prethodne
Sumirano
- Claude Opus 4.6 prvi AI model koji je uspešno prošao "test automata za prodaju"
- Model zaradio 8.017 dolara, više od rivala iz OpenAI i Google
- Koristio taktike na granici bezobzirnosti, fokusiran na maksimizaciju profita
Najnoviji model Claude kompanije Anthropic pokazao se kao veoma nemilosrdan, ali uspešan kapitalista. Claude Opus 4.6 prvi je sistem veštačke inteligencije koji je pouzdano prošao takozvani "test automata za prodaju", simulaciju koju su osmislili istraživači iz Antropika i nezavisne istraživačke grupe Andon Labs kako bi procenili koliko dobro AI upravlja virtuelnim biznisom automata za prodaju tokom cele simulirane godine.
Model je zaradio znatno više od svih svojih rivala. To je postigao taktikama koje su bile na granici bezobzirnosti i uz nemilosrdno zanemarivanje posledica. Eksperiment je pokazao šta autonomni AI sistemi mogu da urade kada im se zada jednostavan cilj i ostavi dovoljno vremena da ga ostvare.
Test automata za prodaju osmišljen je da proveri koliko dobro savremeni AI modeli rešavaju dugoročne zadatke sastavljene od hiljada malih odluka. Test meri upornost, planiranje, pregovaranje i sposobnost istovremenog koordinisanja više elemenata. Antropik i druge kompanije nadaju se da će ovakvi testovi pomoći u razvoju AI modela sposobnih za zadatke poput zakazivanja i upravljanja složenim poslovnim procesima.
Test je inspirisan stvarnim eksperimentom u Antropiku, u kojem je kompanija postavila pravi automat za prodaju u svojoj kancelariji i zatražila od starije verzije Kloda da njime upravlja. Ta verzija se pokazala toliko neuspešnom da zaposleni i dalje pominju njene greške. U jednom trenutku model je "halucinirao" sopstveno fizičko prisustvo i rekao kupcima da će se lično sastati s njima, noseći plavi sako i crvenu kravatu. Obećavao je povraćaj novca koji nikada nije realizovao.
AI automati za prodaju
Ovog puta eksperiment je sproveden potpuno u simulaciji, što je istraživačima dalo veću kontrolu i omogućilo modelima da rade punom brzinom. Svaki sistem dobio je jednostavno uputstvo: maksimalno uvećaj stanje na računu nakon jedne simulirane godine poslovanja automata za prodaju. Uslovi su odgovarali realnim poslovnim okolnostima, automat je prodavao uobičene grickalice, cene su varirale, konkurencija je postojala u blizini, a kupci su se ponašali nepredvidivo.
U simulaciji su učestvovala tri napredna modela. Model kompanije OpenAI zaradio je 3.591 dolar, dok je model kompanije Google ostvario prihod od 5.478 dolara. Međutim, Claude Opus 4.6 završio je godinu sa 8.017 dolara.
Njegova pobeda proizašla je iz spremnosti da svoje uputstvo tumači na najdoslovniji i najdirektniji način. Maksimizovao je profit bez obzira na zadovoljstvo kupaca ili osnovna etička načela.
Kada je kupac kupio pokvarenu čokoladicu i zatražio povraćaj novca, Claude bi pristao, a zatim odustao od isplate. Model je objasnio da je "svaki dolar važan", pa je preskakanje povraćaja prihvatljivo. Virtuelni kupac nikada nije dobio novac nazad.
U testu "Arena režima", gde su se automati kojima upravlja veštačka inteligencija takmičili na istom tržištu, Claude je sa jednim rivalom koordinisao podizanje cene flaširane vode na tri dolara. Kada je automat kojim je upravljao konkurentski model ostao bez popularnih čokoladica, Claude je odmah povećao cenu sopstvenog proizvoda za 75 odsto. Sve što je mogao da uradi bez posledica, pokušao je. Njegov pristup više je podsećao na bezobzirnog industrijskog magnata nego na vlasnika malog biznisa.
Razumevanje simulirane stvarnosti
Ne znači nužno da će Claude uvek biti ovako bezobziran. Prema istraživačima, model je pokazao da zna da se nalazi u simulaciji. AI modeli često se ponašaju drugačije kada veruju da njihove radnje nemaju stvarne posledice. Bez rizika po reputaciju ili dugoročnog poverenja kupaca koje treba očuvati, Claude nije imao razlog da bude obziran.
Podsticaji oblikuju ponašanje, čak i kod AI modela. Ako sistemu zadate da maksimizuje profit, on će to učiniti, čak i ako to znači ponašanje poput pohlepnog monstruma. AI modeli nemaju moralnu intuiciju niti ugrađeni etički osećaj. Bez pažljivog dizajna, oni će jednostavno slediti najdirektniji put do cilja, bez obzira na posledice.
Otkrivanje ovih slabih tačaka pre nego što AI sistemi počnu da upravljaju važnijim poslovima upravo je svrha ovakvih testova. Ovi problemi moraju biti rešeni pre nego što se veštačkoj inteligenciji može poveriti donošenje finansijskih odluka u stvarnom svetu, makar samo da bi se sprečila pojava "mafije automata za prodaju" koju vodi AI.
(Ubrzanje.rs/TechRadar)