Inteligența artificială și sănătatea: cât ne putem baza pe chatboți?

În România, folosirea chatboților medicali implică riscuri suplimentare din cauza nivelului scăzut de educație digitală. Utili pentru informare, periculoși pentru autodiagnostic.

Un articol de opinie publicat în The Washington Post de medicul Leana S. Wen analizează modul în care pacienții pot folosi inteligența artificială pentru a-și înțelege mai bine problemele de sănătate – dar și riscurile majore care apar atunci când AI este folosită pentru autodiagnostic.

Potrivit datelor citate de autoare (Washington Post, consultat 14 octombrie 2025), peste o treime dintre americani au apelat deja la chatboți pentru a căuta informații medicale, iar aproape jumătate dintre tinerii sub 35 de ani recunosc că îi folosesc frecvent. Tot mai mulți medici utilizează la rândul lor sisteme bazate pe inteligență artificială, în special pentru a verifica sau rafina diagnosticele.

Un ajutor real – dar cu limite

AI poate fi un instrument util atunci când este folosită ca sprijin educativ, nu ca sursă de decizie medicală. Dr. Adam Rodman, internist la Beth Israel Deaconess Medical Center din Boston, recomandă pacienților să folosească aceste instrumente după consultații, pentru a înțelege mai bine concluziile din fișa medicală sau pentru a clarifica termeni tehnici.

„Este adesea util să introduci notițele medicale și să ceri explicații pe înțelesul tău”, spune Rodman, adăugând că modelele AI pot traduce jargonul medical într-un limbaj accesibil, mai ales pentru pacienții cu boli rare sau diagnostice complexe.

AI poate fi folosită și înainte de consultație, pentru a organiza întrebările către medic și a formula mai clar simptomele. „Dacă știi exact ce vrei să întrebi, timpul petrecut în cabinet devine mai eficient”, explică Rodman.

Autodiagnosticul, zona de risc

Medicul și cercetătorul Eric Topol, director al Scripps Research Translational Institute, recunoaște că chatboții pot oferi uneori perspective utile sau o „a doua opinie”, însă avertizează că răspunsurile pot fi parțial greșite sau chiar periculoase.

Rodman este și mai rezervat: „Tehnologia nu este suficient de matură pentru a lua decizii medicale fără un profesionist în buclă. În cazuri precum durerea toracică sau simptomele de AVC, pacienții trebuie să sune imediat la urgență, nu să ceară sfaturi unui chatbot.”

Protejarea confidențialității

Specialiștii subliniază că prudența este esențială și în privința datelor personale. Pacienții nu ar trebui să introducă informații de identificare – cum ar fi nume, CNP sau adrese – și să evite încărcarea documentelor medicale complete. Nu există garanții clare privind modul în care companiile care dezvoltă aceste instrumente stochează sau folosesc datele.

Pentru a reduce riscul de erori, Topol recomandă compararea răspunsurilor oferite de mai multe modele AI, cum ar fi ChatGPT, Gemini, Claude sau Perplexity. „Dacă există diferențe mari între răspunsuri, e un semn că trebuie să ceri clarificări medicului tău”, spune el.

Contextul românesc: risc amplificat prin lipsa educației digitale

Aplicarea acestor recomandări în România necesită o doză suplimentară de prudență. Gradul redus de digitalizare și nivelul scăzut al educației digitale în rândul populației fac ca folosirea chatboților medicali să implice riscuri considerabile.

Persoanele cu o capacitate limitată de gândire critică sunt mai vulnerabile la dezinformare și tind să creadă necritic informațiile care „sună convingător”, mai ales când acestea sunt formulate într-un limbaj pseudo-medical. În astfel de cazuri, o explicație eronată generată de un chatbot poate întârzia accesul la îngrijire reală sau poate induce comportamente periculoase de automedicație.

Paradoxal însă, în anumite situații, consultarea unui chatbot poate fi mai puțin riscantă decât alternativa frecvent întâlnită în mediul online românesc: solicitarea de sfaturi medicale pe rețelele sociale. În absența unei culturi a informării corecte, mulți utilizatori cer „părerea prietenilor de pe Facebook” înainte de a se adresa unui medic. Într-un astfel de context, un instrument AI bine calibrat – folosit cu discernământ – poate oferi cel puțin un punct de plecare mai structurat decât opiniile neavizate din mediul social.

Parteneriat, nu înlocuire

În final, Leana S. Wen amintește că, indiferent cât de avansată devine tehnologia, inteligența artificială ar trebui să rămână un sprijin pentru medic, nu un substitut.

„AI poate ajuta pacienții să fie mai bine informați și mai implicați în propriile decizii medicale, dar nu poate înlocui relația umană dintre medic și pacient – nucleul oricărui act medical autentic.”


⚠ Disclaimer: Informațiile prezentate de Medic24 au scop educativ și/sau informativ. Ele nu înlocuiesc consultul medical. Diagnosticul și tratamentul pot fi stabilite doar de un medic.

Abonamente Medic24

Actualitatea medicală din surse verificate. Un singur email pe săptămână.

Subiecte pe Medic24.ro


 

Opinia ta contează!

Potrivit legislației, nu vom publica comentarii ce conțin denumirea comercială a unor medicamente, dispozitive medicale sau suplimente alimentare. De asemenea, respingem categoric comentariile cu limbaj necivilizat, opiniile care îndeamnă la ură, homofobie, rasism, sau cele care aduc atingere imaginii altor persoane.