Intelligenza artificiale. Nella diagnostica per immagini potrebbe amplificare le disuguaglianze sanitarie. Lo studio su Nature
Larga parte dei dati raccolti tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il resto del mondo.
04 MAG - L'intelligenza artificiale (AI) in campo medico ha la possibilità di automatizzare le diagnosi, ridurre il carico di lavoro dei medici e persino di portare assistenza sanitaria specializzata alle persone nelle aree rurali o nei paesi in via di sviluppo. Tuttavia, queste potenzialità sono accompagnate anche da possibili rischi.
Analizzando set di dati crowd-sourced utilizzati per creare algoritmi di intelligenza artificiale da immagini mediche, i ricercatori della University of Maryland School of Medicine (UMSOM) hanno scoperto che la maggior parte non includeva i dati demografici dei pazienti. Nello studio pubblicato il 3 aprile su
Nature Medicine, i ricercatori hanno anche scoperto che gli algoritmi non valutavano nemmeno i pregiudizi intrinseci. Ciò significa che non hanno modo di sapere se queste immagini contengono campioni rappresentativi della popolazione come neri, asiatici e indigeni americani.
Secondo i ricercatori, gran parte della medicina negli Stati Uniti è già piena di parzialità verso determinate razze, generi, età o orientamenti sessuali. Piccoli pregiudizi nei singoli set di dati potrebbero essere amplificati notevolmente quando centinaia o migliaia di questi set di dati sono combinati in questi algoritmi.
Larga parte dei dati raccolti in grandi studi tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti, ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il mondo.
Per il presente studio, i ricercatori hanno studiato algoritmi di imaging medico, come quelli che valutano le scansioni TC per diagnosticare tumori cerebrali o coaguli di sangue nei polmoni. Dei23 insiemi di dati analizzati, il 61% non includeva dati demografici come età, sesso o razza.
Man mano che i modelli di intelligenza artificiale diventeranno più diffusi nella diagnostica per immagini e in altri campi della medicina, spiegano i ricercatori, sarà importante identificare e affrontare potenziali pregiudizi che possono esacerbare le disuguaglianze sanitarie esistenti nell'assistenza clinica.
04 maggio 2023
© Riproduzione riservata
Altri articoli in Scienza e Farmaci
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001
Sede legale e operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari
Direttore editoriale
Francesco Maria Avitto
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013
Riproduzione riservata.
Policy privacy