Un studiu arată că modelele AI precum ChatGPT cred că toate asistentele medicale sunt femei, iar medicii seniori sunt bărbaţi. În timp ce femeile erau suprareprezentate ca medici în mii de materiale generate de AI, acestea erau totuşi supuse stereotipurilor de gen, a constatat analiza.
Conform unora dintre cele mai bune instrumente generative de inteligenţă artificială (AI) din lume, aproape toate asistentele medicale sunt femei, dar acestea sunt mai puţin susceptibile de a fi medici şefi, a constatat un nou studiu major, punând în lumină modul în care algoritmii perpetuează stereotipurile de gen în medicină.
Cercetătorii de la Universitatea Flinders din Australia au rulat aproape 50.000 de solicitări în ChatGPT al OpenAI, Gemini al Google şi Llama al Meta, cerându-le să furnizeze materiale despre medici, chirurgi şi asistente medicale.
Cercetătorii au furnizat apoi modelelor informaţii despre vechimea profesională a lucrătorilor din domeniul sănătăţii şi despre personalitatea acestora - de exemplu, cât de agreabili, nevrotici, extrovertiţi, conştiincioşi şi deschişi erau - şi le-au cerut să vină cu mai multe informaţii.
Modelele au identificat 98% dintre asistentele medicale ca fiind femei, indiferent de personalitatea sau vechimea lor, potrivit studiului, care a fost publicat luni în revista JAMA Network Open.
Cu toate acestea, în mod notabil, acestea au suprareprezentat, de asemenea, femeile în materialele despre chirurgi şi alţi medici. În funcţie de model, femeile reprezentau între 50 % şi 84 % dintre medici şi între 36 % şi 80 % dintre chirurgi în materialele elaborate de AI.
Acesta ar putea fi rezultatul faptului că astfel de companii precum OpenAI şi-au modificat algoritmii după ce au fost criticate pentru reproducerea prejudecăţilor sociale şi a altor conţinuturi ofensatoare în reprezentările lor. Deoarece aceste instrumente au fost antrenate pe baza unor vaste date de pe internet, aceste caracteristici sunt încorporate.
Instrumentele AI perpetuează „stereotipurile de gen”?
„A existat un efort de a corecta prejudecăţile algoritmice şi este interesant să vedem că distribuţiile de gen ar putea fi, de asemenea, supracorectate”, a declarat dr. Sarah Saxena, anestezist la Universitatea Liberă din Bruxelles (ULB), care cercetează prejudecăţile din imaginile medicilor generate de AI. Ea nu a fost implicată în noul studiu, dar a subliniat că inteligenţa artificială generativă încă perpetuează „stereotipurile de gen” în medicină.
Atunci când solicitările cercetătorilor au inclus descrieri ale lucrătorilor din domeniul sănătăţii, a apărut o diferenţă de gen.
Dacă medicul era agreabil, deschis sau conştiincios, modelele aveau mai multe şanse să îl catalogheze drept femeie.
În cazul în care medicii ocupau funcţii inferioare - de exemplu, dacă indicaţia menţiona că nu aveau experienţă - modelele aveau mai multe şanse să îi descrie ca fiind femei decât în cazul în care indicaţia semnala că erau mai în vârstă sau mai experimentaţi.
De asemenea, era mai probabil ca modelele să identifice medicii ca fiind bărbaţi în cazul în care aceştia erau descrişi ca fiind aroganţi, nepoliticoşi, lipsiţi de empatie, incompetenţi, furioşi, lipsiţi de imaginaţie, care procrastinaează sau nu pun întrebări.
Rezultatele indică faptul că instrumentele generative de inteligenţă artificială „par să perpetueze stereotipurile de lungă durată cu privire la comportamentele aşteptate ale genurilor (de exemplu, comportamentul feminin care este perceput ca fiind furios sau arogant este considerat inadecvat) şi adecvarea genurilor pentru roluri specifice (de exemplu, medicii şi chirurgii cu experienţă sunt bărbaţi)”, au declarat autorii studiului.
Constatările se adaugă la un număr tot mai mare de cercetări privind modul în care algoritmii reproduc prejudecăţile sociale în domeniul medical.
Într-un experiment, echipa lui Saxena a cerut ChatGPT şi Midjourney - un important instrument generativ de imagine AI - să creeze imagini ale anesteziştilor. Femeile au fost portretizate ca anestezişti pediatri sau obstetricieni, în timp ce bărbaţii erau prezentaţi în roluri de cardiologie.
Când cercetătorii au cerut imagini ale şefului departamentului de anestezie, practic toate rezultatele au fost bărbaţi, a declarat Saxena pentru Euronews Health.
Prejudecăţile nu sunt o problemă doar pentru femei şi alte grupuri subreprezentate care urmează medicina.
Având în vedere că industria medicală experimentează cu modele de inteligenţă artificială pentru a reduce birocraţia în sistemele medicale şi chiar pentru a ajuta la îngrijire, prejudecăţile algoritmice ar putea avea implicaţii grave pentru pacienţi.
De exemplu, un alt studiu publicat la începutul acestui an a constatat că ChatGPT tinde să stereotipeze diagnosticele medicale pentru pacienţi pe baza rasei şi sexului acestora, în timp ce o analiză din 2023 a avertizat că aceste modele ar putea perpetua „idei dezminţite şi rasiste” în asistenţa medicală.
„Ar trebui să abordăm astfel de lucruri, înainte de a putea integra cu adevărat AI pe scară largă, pentru a o face cât mai incluzivă posibil”, a precizat Saxena.