Cercetătorii din domeniul învățării automate instruiesc rețelele neuronale să judece superficial oamenii, iar rezultatele sunt pe cât de brutale, pe atât de familiare. Așa a fost creată inteligența artificială (AI) care te judecă mai rău decât o soacră.
Un studiu despre AI cu prejudecăți, publicat în revista Proceedings of the National Academy of Sciences, descrie modul în care cercetătorii au instruit modelul astfel încât să judece atributele fețelor umane așa cum procedează oamenii la o primă întâlnire și cum l-au antrenat să manipuleze fotografiile pentru a evoca diferite atribute, cum ar fi „de încredere” sau „dominant”.
„Setul nostru de date nu doar că are prejudecăți, ci le reflectă în mod deliberat”, a spus Joshua Peterson, cercetător postdoctoral în informatică la Princeton, citat de Futurism.
„Am adunat peste 1 milion de prejudecăți umane pentru a instrui un model care poate să prezică și să manipuleze primele impresii date de diverse fețe!”, scria Peterson pe Twitter pe 21 aprilie.
Inteligența artificială care te judecă nu este corectă politic
Lucrarea din PNAS notează că Inteligența Artificială care te judecă reflectă atât de mult judecata umană încât tinde să asocieze caracteristici fizice obiective, cum ar fi mărimea sau culoarea pielii cuiva, cu atribute variind de la „încredere” la „privilegii”.
Într-adevăr, în discuția începută în social media, Peterson a explicat că cele mai multe dintre cele 34 de valori de judecată pe care cercetătorii le-au folosit pentru a antrena AI-ul aveau inferențe politice corespondente.
De exemplu, atunci când a folosit site-ul interactiv al studiului, Futurism a descoperit că algoritmul a marcat fețele albe ca fiind mai „conservatoare”, iar când cineva caută „liberal” pe site, majoritatea fețelor pe care le va vedea sunt ale unor persoane de culoare.
Tehnologia ar putea fi folosită și în scopuri rele
Într-un comunicat de presă, Jordan W. Suchow, cercetător cognitiv și în domeniul AI la Institutul de Tehnologie Stevens, care a lucrat la studiu, a recunoscut că „trebuie să fim atenți la modul în care este utilizată această tehnologie”, deoarece ar putea fi folosită în scopuri infame precum creșterea sau deteriorarea reputației unei persoane publice.
Deși este destul de ezoteric, Suchow a remarcat în comunicatul său de presă că acest tip de învățare automată poate „studia primele impresii preconcepute ale oamenilor unii despre alții”.
„Cu o fotografie a feței tale, putem folosi acest algoritm pentru a prezice care ar fi primele impresii ale oamenilor despre tine și ce stereotipuri ar proiecta asupra ta atunci când ți-ar vedea fața”, a adăugat el.
Inteligența artificială care te judecă pare a fi o problemă din ce în ce mai importantă, însă această răsturnare de paradigmă este pe cât de încântătoare, pe atât de semnificativă.