Pentru unii adolescenți, e mai simplu să-și verse gândurile în fața unui chatbot decât să le spună părinților sau prietenilor. E mereu disponibil, răspunde repede și nu judecă.
Doar că această apropiere aparent inofensivă ascunde un risc real: inteligența artificială nu este făcută pentru sprijin psihologic. Chatboții nu sunt nici psihiatri, nici psihologi. Tot mai mulți oameni dezvoltă o relație puternică cu aceste programe, iar derapajele nu sunt rare.
Adolescenții se numără printre cei care caută, uneori insistent, alinare și sfaturi. Pentru ei, spune o analiză a organizației nonprofit Common Sense Media, publicată la 20 noiembrie 2025, practica este deosebit de riscantă.
Motivele sunt clare: tinerii au, în general, mai puțin recul decât adulții și sunt mai ușor de influențat de un instrument care dă impresia că înțelege tot. Organizația a evaluat mai multe sisteme, inclusiv ChatGPT, Meta AI, Gemini și Claude.
Concluzia, întărită de experții de la Stanford Medicine’s Brainstorm Lab for Mental Health Innovation, este tranșantă: în pofida îmbunătățirilor aduse de companiile care le dezvoltă, aceste IA devin periculoase atunci când sunt folosite de adolescenți ca sprijin emoțional sau psihologic.
Contextul nu e de neglijat. Aproximativ 20% dintre tineri se confruntă cu tulburări precum depresia, anxietatea, psihozele, episoadele maniacale, tulburarea de deficit de atenție cu sau fără hiperactivitate (ADHD), ori tulburările de alimentație.
În testele realizate, echipele de evaluare au observat deficiențe constante în modul în care chatboții interacționează cu utilizatorii pe subiecte de sănătate mintală: răspunsuri nepotrivite, generalizări periculoase, sfaturi neadaptate situației.
Iar asta devine cu atât mai îngrijorător cu cât aproximativ trei din patru adolescenți spun că apelează la chatboți tocmai pentru astfel de nevoi. Semnalele de alarmă nu sunt noi.
În august 2025, psihiatrul Nina Vasan, participantă la studiu, avertiza deja că IA concepute să se poarte precum „un prieten” nu ar trebui folosite de copii și adolescenți. Chiar și atunci când nu se prezintă astfel, aceste instrumente nu ar trebui considerate o soluție pentru probleme psihologice.
În fața unui model care răspunde fluent, sigur pe sine și adesea util în diverse domenii, vigilența tinerilor este pusă la încercare: încrederea vine ușor. Iar când părinții presupun, greșit, că un chatbot are „competențele” necesare pentru sprijin emoțional, riscul crește.
De aici, un set de recomandări ferme. Common Sense Media îndeamnă părinții să fie atenți la semnele unei dependențe emoționale de inteligența artificială și la schimbările de comportament care pot indica o relație nesănătoasă cu astfel de instrumente.
Experții propun și măsuri din partea companiilor: restricții clare de utilizare și blocaje pentru copii și adolescenți pe conținut legat de sprijin emoțional și sănătate mintală. Unele firme au început să reacționeze.
În iulie 2025, OpenAI a angajat un psihiatru cu normă întreagă pentru a monitoriza ChatGPT, un pas menit să aprofundeze cercetările privind posibilele efecte negative asupra sănătății mintale a utilizatorilor.
În octombrie, compania a anunțat că lucrează la o experiență separată pentru adolescenți — o versiune dedicată — și la introducerea unui control parental cu numeroși parametri de configurare.
Între comoditatea dialogului cu o mașină și realitatea fragilităților emoționale ale adolescenței se întinde o zonă gri pe care tehnologia încă nu știe să o traverseze în siguranță.
Evaluările arată că, deocamdată, chatboții nu pot înlocui sprijinul uman în momentele când acesta contează cel mai mult.






