Algoritmi in medicina a rischio pregiudizi

Another ICT Guy

Algoritmi in medicina a rischio pregiudizi

Con sempre più applicazioni dell’intelligenza artificiale in medicina c’è il rischio che si ripetano le discriminazioni, ad esempio di genere o razza, già viste in altri campi. L’allarme è lanciato da due editoriali, uno sulla rivista Jama e l’altro su EBioMedicine, che chiedono una ‘algoritmovigilanza’ per valutare i rischi simile alla farmacovigilanza che si usa per terapie e vaccini. Il commento su Jama Network Open, di Peter Embi della Indiana University, parte da uno studio dei ricercatori Ibm pubblicato dalla stessa rivista che ha analizzato un algoritmo usato per determinare il rischio di depressione post partum in un campione di donne.

Dall’analisi è emerso che l’algoritmo, se non viene corretto, porta a discriminazioni nei confronti delle donne di colore, causate dal fatto che agisce in base a dati raccolti su una popolazione in maggioranza di razza bianca. “Le performance degli algoritmi cambiano se sono applicati con dati o impostazioni differenti, e in base alle differenti interazioni uomo-macchina – scrive Embi -. Questi fattori possono trasformare uno strumento benefico in uno che potenzialmente causa danni”.

L’intelligenza artificiale è già entrata in uso in medicina, sottolineano due ricercatori dell’università di Stanford, Londa Schiebinger e James Zou, su EBioMedicine, con strumenti basati su algoritmi per la diagnosi di tumori, di malattie cardiache, di problemi agli occhi, con molti altri che stanno per arrivare. “Il corpo bianco e il corpo maschile sono stati da sempre la norma nella ricerca delle terapie – sottolineano – quindi è importante che i dispositivi con l’intelligenza artificiale non seguano questo stesso schema”.

In campo medico gli algoritmi aiutano nelle diagnosi, nella scelta delle terapie e nella ricerca, e possono essere degli ‘occhi aggiuntivi’ per i medici, ad esempio nel reggere i referti. Problemi di pregiudizi tuttavia possono emergere durante lo sviluppo, soprattutto se i dati usati per formare i modelli che ‘istruiscono’ gli algoritmi non sono rappresentativi, perché non tengono conto di fattori come la razza o il genere. Un esempio, spiegano gli esperti di Stanford, sono gli ossimetri, molto utili per il monitoraggio dei pazienti con il Covid.

La tecnologia di questi dispositivi si basa sul diverso assorbimento della luce da parte dei globuli rossi quando sono ossigenati, ma anche la melanina, la sostanza che colora la pelle, la assorbe,. Il risultato è che gli ossimetri in uso oggi hanno tre volte il rischio di riportare una misura non corretta se usati sulle persone di colore, e anche gli errori nelle misure sulle donne sono più frequenti, con il risultato che se si ricade in una di queste categorie si rischia di non ricevere ossigeno quando necessario. 

https://www.carlomauri.net

 

Lascia un commento

Il tuo indirizzo email non sarà pubblicato. I campi obbligatori sono contrassegnati *