Vreme čitanja: oko 2 min.
Posle teške bolesti ova devojka ponovo ima svoj glas: Kloniran je uz pomoć veštačke inteligencije
Vreme čitanja: oko 2 min.
Osim OpenAI i druge kompanije testiraju ovu tehnologiju
-
OpenAI tehnologija može mnogo da učini za ljude koji su izgubili svoj glas
-
Tehnologija kloniranja glasa sa sobom nosi rizike koji mogu imati ozbiljne posledice
-
Onima koji ih koriste, klonirani glasovi vraćaju osećaj sigurnosti, sreće i digniteta
Dok je kloniranje glasa koristeći veštačku inteligenciju (AI) izaziva zabrinutost, upotreba nove tehnologije OpenAI mogla bi da pomogne ljudima pogođenim moždanim udarom i tumorima.
Pre nego što se podvrgla operaciji koja je trebalo da joj spase i promeni život, glas mlade amerikanke Aleksis Leksi Bogan bio je pun energije.
Volela je da peva balade dok vozi, uvek se smejala a u školi je bila sopran u horu.
Preko noći, ovaj glas je nestao.
Meseci rehabilitacije su pomogli Leksi u njenom oporavku, ali govor joj je i dalje oslabljen, te se čak i njena porodica i prijatelji muče da je razumeju.
Međutim, Leksi je u aprilu vratila svoj stari glas. Njena sposobnost govora se nije popravila, ali je dobila klon svog glasa generisan tehnologijom veštačke inteligencije od proizvođača ChatGPT OpenAI, koji može da koristi putem aplikacije na svom telefonu.
Kreairana koristeći 15 sekundi njenog tinejdžerskog glasa dobijenog iz videa koji je snimila za školski projekat, njen sintetički glas sada može da kaže gotovo sve što poželi i zvuči izuzetno stvarano i autentično.
Ona ukuca nekoliko reči ili rečenica u svoj telefon i aplikacija ih odmah pročita naglas, reprodukujući njen klonirani glas.
Druga strana medalje
Stručnjaci su upozorili da veoma brzo poboljšanje tehnologije kloniranja glasa pomoću veštačke inteligencije može da poveća rizik od telefonskih prevara, poremeti demokratske izbore i naruši dostojanstvo ljudi, živih ili mrtvih, koji nikada nisu pristali da se njihov glas ponovo kreira da bi rekli stvari koje nikada nisu izgovorili.
Veliku zabrinutost stvara korišćenje ove tehnologije u svrhu kreiranja takozvanog dipfejk (deepfake) sadržaja koji može biti veoma štetan. Enciklopedija Britanika definiše dipfejk kao "sintetički mediji, uključujući slike, video i audio zapise, generisane tehnologijom veštačke inteligencije koji prikazuju nešto što ne postoji u stvarnosti ili događaje koji se nikada nisu dogodili."
Tehnologija je, na primer, korišćena za kreiranje dipfejk poziva glasačima Nju Hempšira koji oponašaju američkog predsednika Džoa Bajdena.
U američkoj državi Merilend, vlasti su nedavno optužile sportskog direktora srednje škole da je koristio veštačku inteligenciju za generisanje dipfejk audio klipa direktora škole kako daje rasističke komentare.
Ipak, Leksi i njen tim lekara misle da su našli primenu ove tehnologije koja opravdava rizik, prenosi Juronjuz.
Bogan je jedna od prvih osoba – jedina sa njenim stanjem – koja je uspela da ponovo stvori izgubljeni glas pomoću OpenAI.
Neki drugi provajderi veštačke inteligencije, kao što je startup ElevenLabs, testirali su sličnu tehnologiju za ljude sa govornim poteškoćama i gubitkom govora - uključujući advokata koja sada koristi svoj klon glasa u sudnici.
(Ubrzanje.rs)
Video: Čadež sa Veb samita za Ubrzanje: "Inovativne ideje nam daju iste šanse kao SAD"
Ubrzanje Telegraf zadržava sva prava nad sadržajem. Za preuzimanje sadržaja pogledajte uputstva na stranici Uslovi korišćenja.