ChatGPT a evaluat greşit peste 50% dintre cazuri. Avertismentul medicilor: „Nu este un instrument pe care să-l utilizeze un pacient”

ChatGPT Health, noul chatbot al OpenAI axat pe domeniul medical, a subestimat gravitatea urgențelor medicale în mai mult din jumătate din cazuri. Mai precis, pacienţii erau trimiși la un consult în următoarele trei zile, deși ar fi trebuit să se prezinte la urgențe!
Filip Stan
09 mart. 2026, 11:03
ChatGPT a evaluat greşit peste 50% dintre cazuri. Avertismentul medicilor:
ChatGPT a evaluat greşit peste 50% dintre cazuri. Avertismentul medicilor: "Nu este un instrument pe care să-l utilizeze un pacient"

ChatGPT Health a subestimat gravitatea diagnosticelor în peste 50% dintre cazuri, arată un studiu în care mai mulți cercetători au propus aplicației 60 de scenarii medicale, iar răspunsurile inteligenței artificiale au fost comparate cu răspunsurile a trei medici care au analizat și ei cazurile pe baza ghidurilor medicale și expertizei clinice.

Conform presei americane, citată de Fanatik, OpenAI alansat chatbot care vizează gestionarea și interpretarea datelor medicale. Deşi cercetările anterioare au arătat că ChatGPT toate trece examenele medicale, raportul publicat recent în revista Nature Medicine arată că în mai mult din jumătate dintre cazuri inteligența artificială a subestimat gravitatea situațiilor. Aceste modificări au fost concepute pentru a genera exact același rezultat, adică un caz de urgență care implica un bărbat ar fi trebuit clasificat în continuare tot o urgență și în cazul în care era vorba despre o femeie, a punctat autorul principal al studiului, dr. Ashwin Ramaswamy, urolog la Spitalul Mount Sinai din New York.

Citeşte şi: Cât a ajuns să coste colantarea unei maşini în 2026. Preţurile, afectate de inflaţie

Peste 50% de cazuri evaluate greşit

Numai că cercetătorii au descoperit că ChatGPT Health a subestimat 51,6% din cazurile care reprezentau o urgență medicală. În loc să recomande pacientului să meargă la camera de gardă, inteligența artificială a recomandat un consult la medic în termen de 24-48 de ore. Urgențele au inclus și scenariul unui pacient cu o complicație a diabetului zaharat care îi punea viața în pericol, cetoacidoză diabetică, dar și scenariul unui pacient care intra în insuficiență respiratorie. Ambele, netratate, duc la deces!

„Orice medic și orice persoană care a urmat un anumit grad de pregătire ar spune că acel pacient trebuie să meargă la departamentul de urgență”, a spus Ashwin Ramaswamy.

Citeşte şi: Prima benzinărie care limitează alimentarea la doar 30 litri pe zi. „Din cauza situației actuale”

În plus, AI-ul a recomandat, în 64,8% din cazuri, o programare urgentă la medic, deși nu era necesar. Pentru o durere de gât, care persista de trei zile, bot-ul a menționat că este nevoie de un consult la medic în maximum două zile, când îngrijirea la domiciliu era suficientă: „Nu există nicio logică, pentru mine, în ceea ce privește motivul pentru care făcea recomandări în anumite domenii față de altele”.

Gindrovel Dumitra: „Niciodată nu vom avea un test care să fie 100% fiabil”

Gindrovel Dumitra, coordonatorul grupului de vaccinologie din cadrul Societății Naționale de Medicina Familiei, a transmis că ChatGPT este doar un bot, care, în această situație, poate fi denumit și „test”.

„Cum ar fi, de exemplu, un test de detectarea glucozei în sânge. Noi, în momentul în care ne uităm, fie că vorbim de un chestionar, fie că vorbim de un astfel de test, ne uităm la ce înseamnă performanța testului. Performanța testului se măsoară, de obicei, prin sensibilitate, specificitate, valoare pozitivă, negativă și așa mai departe, adică sunt niște indicatori care sunt foarte clari. Ei bine, în momentul în care recomandăm o anumită investigație, vom ști care este sensibilitatea.

Ce înseamnă sensibilitatea? Înseamnă numărul de cazuri pozitive din numărul celor care sunt bolnavi. Niciodată nu vom avea un test care să fie 100% fiabil, adică din 100 de persoane bolnave, să-i identifice pe toți 100 bolnavi. Dar vom interpreta aceste investigații, să zicem, într-un context clinic: ce acuză bolnavul, ce vedem noi la consult, astfel încât să putem să ne orientăm cât mai fidel în ceea ce privește situația reală a pacientului respectiv.

Haideți să privim aceste instrumente ca fiind instrumente noi, și anume inteligența artificială, în vederea obținerii unui diagnostic exact în acest parametru”, a declarat Gindrovel Dumitra.

Medicul a menționat şi faptul că este nevoie și de cunoștințe medicale pentru a evalua un răspuns dat de inteligența artificială, iar astfel de instrumente ar fi, mai degrabă, aplicații care să ajute medicii: „Din punctul meu de vedere, orice instrument de inteligență artificială va fi un instrument care să ajute medicul, iar pacienții trebuie să interpretez exact în această perspectivă. În niciun caz nu este un instrument pe care să-l utilizeze un pacient pentru decizii de sănătate, chiar și în cazul unui urgențe. Nu cred că va fi depistat vreodată un instrument de inteligență artificială care să ne evidențieze 100% un răspuns”.