Oamenii nu mai pot distinge vocile umane de clonele create de inteligența artificială

Curiozitate.ro

Oamenii nu mai pot distinge vocile umane de clonele create de inteligența artificială

Imaginează-ți că primești un telefon de la mama ta, de la partenerul de viață sau de la cel mai bun prieten. Vocea este inconfundabilă, intonația perfectă, emoțiile palpabile. Ai recunoaște acea voce oricând și oriunde.

Dar ce-ai face dacă ai descoperi că, de fapt, discuți cu o inteligență artificială?

Un studiu recent, publicat la sfârșitul lunii septembrie în prestigioasa revistă PLoS One, a dezvăluit o realitate pe cât de fascinantă, pe atât de tulburătoare: am pierdut, aproape în totalitate, capacitatea de a distinge vocile umane de clonele lor digitale.

Iar implicațiile acestei descoperiri ar putea schimba fundamental modul în care interacționăm și ne raportăm la lumea din jur. Certitudinile noastre, zdruncinate din temelii de știință, ne obligă să privim altfel realitatea.

O echipă de cercetători condusă de Nadine Lavan, de la Universitatea Queen Mary din Londra, a conceput un experiment simplu, dar revelator. Voluntarilor li s-au prezentat optzeci de mostre vocale: patruzeci de voci umane autentice și patruzeci de voci generate de inteligența artificială.

Misiunea participanților părea la îndemână: să identifice care dintre ele erau reale și care erau artificiale. Rezultatele, însă, sunt de natură să dea fiori reci. În cazul vocilor create integral de computer, fără a avea la bază un model uman, participanții s-au descurcat relativ bine.

Doar 41% dintre aceste voci generice au reușit să păcălească urechea umană. Astfel, suntem încă în măsură să detectăm o creație artificială de bază, așa cum o facem instinctiv cu asistenți vocali precum Siri sau Alexa. Situația se schimbă radical atunci când vine vorba de clonele vocale.

Aceste reproduceri digitale, antrenate pe înregistrări vocale umane autentice, au reușit să înșele 58% dintre ascultători. Ceea ce este și mai deranjant este faptul că vocile umane reale au fost identificate corect doar în 62% dintre cazuri.

Din punct de vedere statistic, această diferență este una neglijabilă, aproape inexistentă. În termeni simpli, înseamnă că nu mai știm să facem diferența între o voce reală și o copie perfectă.

Ceea ce face această descoperire cu adevărat îngrijorătoare este accesibilitatea șocantă a tehnologiei din spatele ei. Cercetătorii nu au folosit echipamente de laborator sofisticate sau software-uri rezervate experților.

Ei s-au bazat pe instrumente comerciale, disponibile oricui online, la un cost minim. Procesul de clonare vocală necesită, în prezent, o expertiză minimă. Este nevoie de doar patru minute de înregistrare pentru a crea o replică convingătoare a unei voci umane.

Patru minute pe care orice individ cu intenții rele le poate obține cu ușurință din videoclipuri publicate pe rețelele sociale, din interviuri televizate sau chiar din mesaje vocale lăsate pe telefon.

Această democratizare a tehnologiei transformă ceea ce era odată apanajul serviciilor secrete sau al studiourilor de film într-un instrument accesibil oricărui escroc. Bugetul necesar este aproape zero, iar curba de învățare este practic inexistentă, barierele de intrare prăbușindu-se complet.

Sharon Brightwell a trăit pe propria piele această experiență amară, pe 9 iulie. La telefon, a auzit-o pe fiica ei plângând. Aceasta i-a spus că a avut un accident și că are nevoie de cincisprezece mii de dolari pentru a evita închisoarea. Disperarea era palpabilă, iar vocea, inconfundabilă.

Sharon a transferat banii fără să stea pe gânduri. Numai că la celălalt capăt al firului nu era fiica ei. Inteligența artificială îi clonase vocea cu o precizie atât de mare încât până și urechea maternă, reperul suprem al recunoașterii vocale, a fost complet înșelată.

Sharon va confirma mai târziu, cu o convingere care îți dă fiori reci: nimeni nu ar fi putut-o convinge că nu era fiica ei. Această înșelătorie nu este un caz izolat.

Sistemele de autentificare vocală ale băncilor devin vulnerabile, iar protocoalele de securitate bazate pe recunoaștere vocală își pierd fiabilitatea. O simplă conversație telefonică nu mai garantează identitatea interlocutorului.

Implicațiile acestei tehnologii depășesc cu mult cadrul escrocheriilor financiare. Steven Miles, prim-ministrul din Queensland, s-a trezit fără voia sa în centrul unei escrocherii cu Bitcoin.

Escrocii i-au clonat vocea pentru a crea mesaje promoționale false, folosindu-i credibilitatea pentru a atrage potențiali investitori. Această capacitate de a falsifica declarații politice deschide perspective amețitoare în ceea ce privește manipularea opiniei publice.

Imaginați-vă o înregistrare falsă a unui lider politic pronunțând declarații incendiare, difuzată cu doar câteva ore înainte de alegeri. Imaginați-vă un interviu fals al unei celebrități care exprimă opinii controversate, imposibil de dezmințit eficient, având în vedere perfecțiunea reproducerii.

Dezinformarea dispune acum de o armă cu o putere fără precedent. Deși deepfake-urile video au alarmat deja experții, deepfake-urile audio, mult mai ușor de produs și mai greu de detectat, reprezintă poate o amenințare și mai perfidă.

Nadine Lavan recunoaște că această tehnologie nu se rezumă doar la aspectele sale maligne. Există aplicații pozitive notabile. Accesibilitatea pentru persoanele care suferă de tulburări de vorbire ar putea fi revoluționată.

Educația ar putea beneficia de conținut audio personalizat, de înaltă calitate, iar comunicarea asistată ar putea deveni mult mai naturală și eficientă. Cu toate acestea, aceste perspective încurajatoare nu trebuie să umbrească urgența dezvoltării unor contramăsuri eficiente.

Detectarea automată a deepfake-urilor audio progresează, dar rămâne în urma sofisticării crescânde a instrumentelor de generare. O adevărată cursă contra cronometru a început între creatorii și detectoarele de conținut sintetic.

Între timp, o singură certitudine se impune cu forța: nu mai putem avea încredere oarbă în ceea ce ne spun urechile. Data viitoare când veți primi un apel de urgență de la o persoană dragă, cerând bani, chiar dacă vocea vi se pare perfect familiară, luați-vă timp să verificați.

Sunați înapoi direct persoana respectivă. Puneți întrebări la care doar persoana reală ar putea ști răspunsul. Prudența nu mai este o simplă precauție, ci a devenit o necesitate absolută într-o lume în care realitatea sonoră poate fi falsificată cu o ușurință deranjantă.

Surse și detalii suplimentare