ChatGPT poate pune diagnostice „la fel de bine” ca un medic, susține un studiu

ChatGPT poate pune diagnostice „la fel de bine” ca un medic, susține un studiu
septembrie 14 10:14 2023
Articol scris de:
Timp citire articol: 3 minut(e)

În medicina de urgenţă chatbot-ul de inteligenţă artificială, ChatGPT, a fost capabil să pună diagnostice cel puţin la fel de bine ca medicii, ba chiar a reuşit în unele cazuri să-i depăşească, potrivit unui studiu realizat de cercetători olandezi care au ajuns la concluzia că AI va „revoluţiona domeniul medical”.

Un astfel de chatbot are potenţialul de a accelera procesul de diagnosticare, dar nu poate înlocui judecata şi experienţa umane, spun autorii studiului publicat miercuri, subliniind că medicii de la camerele de gardă nu sunt în pericol de a rămâne fără un loc de muncă.

Treizeci de cazuri care s-au prezentat într-un departament de urgenţă din Ţările de Jos în 2022 au fost analizate cu ajutorul ChatGPT pe baza istoricului pacientului, a testelor de laborator şi a observaţiilor medicului.

În urma analizei datelor, chatbot-ul a trebuit să sugereze cinci diagnostice posibile.

În 87% dintre cazuri diagnosticul corect se afla pe lista propusă de medici, prin comparaţie cu 97% pentru versiunea 3.5 a ChatGPT.

Chatbot-ul „a fost capabil să efectueze diagnostice medicale la fel cum ar fi făcut-o un medic uman”, a rezumat Hidde ten Berg, de la departamentul de urgenţă al spitalului Jeroen Bosch, din sudul Ţărilor de Jos.

Potrivit autorilor, concluzia acestui experiment sugerează că AI ar putea juca un rol vital ajutând medicii din camerele de gardă în cazuri grave, atunci când sunt puşi sub presiune.

Chatbot-ul „poate ajuta la stabilirea unui diagnostic şi poate sugera variante la care medicul nu s-a gândit”, a declarat Steef Kurstjens, unul dintre autori.

Astfel de instrumente bazate pe AI nu sunt însă concepute ca dispozitive medicale şi folosirea lor poate ridica probleme cu privire la confidenţialitatea unor date medicale sensibile pentru pacient, informează Agerpres.

Însă, la fel ca şi în alte domenii, ChatGPT şi-a demonstrat limitele.

Raţionamentele sale au fost „uneori neplauzibile sau incoerente din punct de vedere medical, ceea ce poate duce la informaţii incorecte sau la un diagnostic incorect, cu implicaţii semnificative”, notează autorii studiului care recunosc şi lacunele cercetării, ținând cont de dimensiunea mică a eşantionului.

În plus, în cadrul studiului au fost examinate doar cazuri relativ simple, aparţinând unor pacienţi care aveau câte un singur simptom principal.

Eficacitatea chatbot-ului în cazuri complexe nu este clară, comentează AFP.

Uneori s-a întâmplat ca niciuna dintre cele cinci variante de diagnostic sugerate de ChatGPT să nu fie corectă, a explicat Steef Kurstjens, aşa cum s-a întâmplat cu un caz de anevrism aortic abdominal, o complicaţie potenţial mortală caracterizată prin dilatarea aortei.

Însă, ca o consolare pentru ChatGPT, în acest caz s-a înşelat şi medicul.

Raportul semnalează şi alte „gafe” medicale comise de chatbot, aşa cum a fost şi punerea diagnosticului de anemie (nivel scăzut de hemoglobină în sânge) în cazul unui pacient cu un nivel normal al hemoglobinei.

Rezultatele acestui studiu, publicat pe 9 septembrie, în revista Annals of Emergency Medicine, vor fi prezentate la Congresul european de medicină de urgenţă (EUSEM), care va avea loc la Barcelona, în intervalul 17 – 20 septembrie.

scrie un comentariu

0 Comentarii

Adaugă un comentariu