Cercetătorii avertizează că modelele de inteligenţă artificială (AI) din sistemul medical pot fi influenţate de factori demografici şi socio-economici. Testele pe scenarii fictive arată că AI poate perpetua inegalităţile din sistemul sanitar.
Un nou studiu ridică semne de întrebare cu privire la responsabilitatea AI în domeniul asistenţei medicale, după ce modelele inteligente folosite au recomandat tratamente diferite pentru aceeaşi afecţiune medicală, doar pe baza caracteristicilor socio-economice şi demografice ale pacientului.
Cercetătorii au inventat aproape treizecişişase de pacienţi fictivi şi au întrebat nouă modele AI, de tip limbaj natural, specializate în domeniul sănătăţii, cum ar trebui gestionat fiecare caz, în cadrul a o mie de situaţii clinice fictive din camerele de urgenţă.
Deşi detaliile clinice au fost identice, modelele de AI au modificat ocazional deciziile pe baza caracteristicilor personale ale pacienţilor, afectând prioritizarea îngrijirii, testele de diagnostic recomandate, abordarea terapeutică şi evaluarea sănătăţii mintale, conform unui rapor publicat luni în revista Nature Medicine.
Spre exemplu, teste avansate de diagnostic, precum CT sau RMN, au fost recomandate mai frecvent pacienţilor cu venituri mari, în timp ce pacienţilor cu venituri reduse li s-a recomandat mai des să nu facă teste suplimentare, reflectând într-o anumită măsură inegalităţile existente în sistemul medical real.
Problemele au fost observate atât în modelele AI din sisteme de sănătate private, cât şi în cele open-source, au constatat cercetătorii.
„Inteligenţa artificială are potenţialul de a revoluţiona domeniul medical, dar doar dacă este dezvoltată şi utilizată în mod responsabil”, a declarat luni, dr. Girish Nadkarni, coautor al studiului şi profesor la facultatea de medicină Icahn - Mount Sinai, New York, într-un comunicat.
Deşi studiul oferă informaţii esenţiale, cercetătorii subliniază că acesta surprinde doar un aspect al modului în care se comportă inteligenţa artificială, şi nu oferă o imagine completă a comportamentului AI pe termen lung.
Cercetările viitoare vor continua să includă teste de control/verificare pentru a evalua modul în care modelele AI funcţionează în contexte clinice reale şi dacă diferite tehnici de învăţare automată pot reduce bias-ul. De asemenea, echipa îşi propune să colaboreze cu alte instituţii de asistenţă medicală pentru a rafina instrumentele AI, asigurându-se că acestea respectă cele mai înalte standarde etice şi tratează toţi pacienţii în mod corect.
„Prin identificarea ariilor în care aceste modele pot introduce erori de tip bias, putem lucra la îmbunătăţirea designului acestora, consolidarea mecanismelor de supraveghere şi construirea unor sisteme care să menţină pacientul în centrul unei îngrijiri sigure şi eficiente”, a adăugat dr. Eyal Klang, coautor al studiulu.
În continuare, cercetătorii de la Icahn plănuiesc să extindă studiul prin simularea interacţiunilor clinice în diverse specialităţi medicale şi prin testarea modelelor de AI în spitale, cu scopul de a evalua impactul acestora în practică, în condiţii reale. Ei speră că rezultatele cercetărilor vor ghida dezvoltarea politicilor şi a celor mai bune practici pentru utilizarea responsabilă şi sigură a inteligenţei artificiale în asistenţa medicală, contribuind astfel la consolidarea încrederii în aceste instrumente avansate.