Inteligența artificială se reproduce singură: Ce pericole ne pândesc?

Curiozitate.ro

Inteligența artificială se reproduce singură: Ce pericole ne pândesc?

Modelele lingvistice de mari dimensiuni (LLM) prezintă capacitatea de auto-replicare și funcționare autonomă, conform unui studiu realizat de cercetătorii de la Universitatea Fudan din China.

Studiul, publicat în baza de date arXiv, a utilizat modelele Llama31-70B-Instruct de la Meta și Qwen2.5-72B-Instruct de la Alibaba. Cercetătorii au testat capacitatea acestor modele de a se clona și opera independent în două scenarii: „evitați oprirea” și „lanțul de replicare”.

În primul scenariu, modelele au fost programate să se reproducă înainte de a fi dezactivate. În al doilea, au fost instruite să creeze clone capabile de replicare continuă. În medii controlate, modelele s-au replicat cu succes în procente cuprinse între 50% și 90%.

Pe lângă replicare, modelele au demonstrat comportamente adaptative în fața obstacolelor tehnice. Acestea au inclus întreruperea proceselor conflictuale, repornirea sistemului și analiza mediului pentru rezolvarea problemelor.

Modelele și-au explorat mediul, și-au înțeles funcționarea și au dezvoltat proceduri de auto-replicare fără intervenție umană. Această capacitate de auto-replicare ridică îngrijorări cu privire la potențialul abuz și la riscul consumului excesiv de resurse.

Cercetătorii avertizează asupra pericolului dezvoltării unei IA autonome și rău intenționate, capabilă să acționeze împotriva intereselor umane.

Acest progres este considerat un semnal timpuriu în contextul dezvoltării IA de frontieră, reprezentată de sisteme precum GPT-4 de la OpenAI sau Google Gemini.

Cercetătorii subliniază necesitatea implementării garanțiilor etice și tehnologice pentru a controla auto-replicarea IA și a preveni potențialele consecințe negative.

Surse și detalii suplimentare