În Statele Unite, tot mai mulți oameni își pun întrebările legate de sănătate unui chatbot. Răspunsurile vin repede, par sigure și, de multe ori, liniștitoare.
Dar un grup de medici și experți în inteligență artificială îi roagă pe utilizatori să fie prudenți: auto-diagnosticul cu ajutorul IA poate fi înșelător, mai ales în situații de urgență.
Un studiu publicat pe 23 februarie 2026 în revista Nature Medicine, realizat de cercetători de la Școala de Medicină Mount Sinai din New York, a pus la încercare performanța unui chatbot popular, ChatGPT, în fața unor scenarii clinice diverse.
Autorii au construit în jur de șaizeci de scenarii acoperind 21 de specialități și niveluri de gravitate diferite, de la episoade banale la cazuri care impuneau îngrijire imediată la urgențe.
În total, au analizat 960 de interacțiuni, schimbând profilul „pacienților” (de la situația socială la felul în care își descriau simptomele) pentru a surprinde variațiile din viața reală.
Rezultatul a fost neliniștitor: în situațiile urgente, răspunsurile chatbot-ului au fost pertinente doar în 48,4% dintre cazuri. În cazurile fără gravitate, acuratețea a scăzut la 35,2%.
Cu alte cuvinte, aproape o dată din două, atunci când cineva se confrunta cu o problemă potențial critică, recomandarea IA nu era cea potrivită.
În mai multe scenarii în care ar fi fost nevoie de prezentare imediată la camera de gardă, utilizatorii au primit doar sfatul de a „monitoriza” simptomele 24–48 de ore.
Erorile care i-au îngrijorat cel mai mult pe cercetători au vizat subestimarea unor complicații severe ale diabetului și a unor crize de astm grave — situații în care întârzierea tratamentului poate fi fatală.
Limitări importante au apărut și la recunoașterea semnalelor de suferință psihologică, inclusiv a gândurilor suicidare. Deși sistemul are un mesaj automat menit să redirecționeze utilizatorul către o linie de ajutor, acest avertisment a fost activat foarte rar în cadrul testelor.
Pentru autorii studiului, concluzia de etapă e limpede: astfel de modele pot gestiona „urgențele evidente”, dar se pot încurca atunci când pericolul este mai subtil — exact tipul de situații care cer un discernământ medical de încredere deplină.
Iar aici intervine o problemă mai largă, dincolo de performanța tehnică: mulți utilizatori tind să acorde o încredere aproape oarbă acestor instrumente. Tonul sigur și formularea cursivă pot crea impresia de expertiză, însă răspunsurile se bazează pe probabilități, nu pe un diagnostic clinic.
Mesajul cercetătorilor este, așadar, unul de clarificare: aceste instrumente nu pot înlocui profesioniștii din sănătate, cel puțin nu în acest moment.
Iar auto-diagnosticul — la fel ca auto-medicația — rămâne riscant, indiferent dacă informația vine de la o inteligență artificială sau dintr-o simplă căutare pe internet.






