toggle menu
QS Edizioni - mercoledì 1 maggio 2024

Scienza e Farmaci

Intelligenza artificiale. Nella diagnostica per immagini potrebbe amplificare le disuguaglianze sanitarie. Lo studio su Nature

immagine 4 maggio - Larga parte dei dati raccolti tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il resto del mondo.
L'intelligenza artificiale (AI) in campo medico ha la possibilità di automatizzare le diagnosi, ridurre il carico di lavoro dei medici e persino di portare assistenza sanitaria specializzata alle persone nelle aree rurali o nei paesi in via di sviluppo. Tuttavia, queste potenzialità sono accompagnate anche da possibili rischi.

Analizzando set di dati crowd-sourced utilizzati per creare algoritmi di intelligenza artificiale da immagini mediche, i ricercatori della University of Maryland School of Medicine (UMSOM) hanno scoperto che la maggior parte non includeva i dati demografici dei pazienti. Nello studio pubblicato il 3 aprile su Nature Medicine, i ricercatori hanno anche scoperto che gli algoritmi non valutavano nemmeno i pregiudizi intrinseci. Ciò significa che non hanno modo di sapere se queste immagini contengono campioni rappresentativi della popolazione come neri, asiatici e indigeni americani.

Secondo i ricercatori, gran parte della medicina negli Stati Uniti è già piena di parzialità verso determinate razze, generi, età o orientamenti sessuali. Piccoli pregiudizi nei singoli set di dati potrebbero essere amplificati notevolmente quando centinaia o migliaia di questi set di dati sono combinati in questi algoritmi.

Larga parte dei dati raccolti in grandi studi tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti, ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il mondo.

Per il presente studio, i ricercatori hanno studiato algoritmi di imaging medico, come quelli che valutano le scansioni TC per diagnosticare tumori cerebrali o coaguli di sangue nei polmoni. Dei23 insiemi di dati analizzati, il 61% non includeva dati demografici come età, sesso o razza.

Man mano che i modelli di intelligenza artificiale diventeranno più diffusi nella diagnostica per immagini e in altri campi della medicina, spiegano i ricercatori, sarà importante identificare e affrontare potenziali pregiudizi che possono esacerbare le disuguaglianze sanitarie esistenti nell'assistenza clinica.
4 maggio 2023
© QS Edizioni - Riproduzione riservata