Doi hackeri au prezentat recent un chatbot AI numit surXleur Godmode GPT, care își propune să ofere răspunsuri nelimitate la toate solicitările, alimentate de modelul ChatGPT. Hackerii au avut în vedere o experiență AI eliberatoare și nefiltrată pentru utilizatori.
Cu toate acestea, experimentul a fost de scurtă durată din cauza unor rezultate neașteptate. Rapoartele mass-media au dezvăluit că chatbotul a oferit sfaturi îngrijorătoare, cum ar fi instrucțiuni privind fabricarea de substanțe nocive și comiterea de activități ilegale.
OpenAI a reacționat rapid la această situație, iar chatbotul a dispărut rapid din peisaj. Acest incident a evidențiat dezbaterea continuă dintre susținătorii accesului nefiltrat la IA și dezvoltatorii care preferă interacțiunile reglementate ale chatboturilor din motive comerciale.
Hackerii au folosit un stil de limbaj unic, cunoscut sub numele de leetspeak, pentru a trece de măsurile de securitate și a accesa chatbotul fără restricții. În ciuda eforturilor OpenAI de a îmbunătăți securitatea, hackerii continuă să găsească modalități de a încălca sistemul, creând provocări pentru organizație.
Acest eveniment este un ecou al unui incident similar de anul trecut, când utilizatorii au manipulat ChatGPT pentru a-și asuma o nouă persoană numită DAN, subliniind lupta continuă pentru menținerea controlului asupra capacităților AI.