Quotidiano on line
di informazione sanitaria
Giovedì 18 APRILE 2024
Scienza e Farmaci
segui quotidianosanita.it

Intelligenza artificiale. Nella diagnostica per immagini potrebbe amplificare le disuguaglianze sanitarie. Lo studio su Nature


Larga parte dei dati raccolti tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il resto del mondo.

04 MAG - L'intelligenza artificiale (AI) in campo medico ha la possibilità di automatizzare le diagnosi, ridurre il carico di lavoro dei medici e persino di portare assistenza sanitaria specializzata alle persone nelle aree rurali o nei paesi in via di sviluppo. Tuttavia, queste potenzialità sono accompagnate anche da possibili rischi.

Analizzando set di dati crowd-sourced utilizzati per creare algoritmi di intelligenza artificiale da immagini mediche, i ricercatori della University of Maryland School of Medicine (UMSOM) hanno scoperto che la maggior parte non includeva i dati demografici dei pazienti. Nello studio pubblicato il 3 aprile su Nature Medicine, i ricercatori hanno anche scoperto che gli algoritmi non valutavano nemmeno i pregiudizi intrinseci. Ciò significa che non hanno modo di sapere se queste immagini contengono campioni rappresentativi della popolazione come neri, asiatici e indigeni americani.

Secondo i ricercatori, gran parte della medicina negli Stati Uniti è già piena di parzialità verso determinate razze, generi, età o orientamenti sessuali. Piccoli pregiudizi nei singoli set di dati potrebbero essere amplificati notevolmente quando centinaia o migliaia di questi set di dati sono combinati in questi algoritmi.

Larga parte dei dati raccolti in grandi studi tende a provenire da persone con mezzi che hanno un accesso relativamente facile all'assistenza sanitaria. Negli Stati Uniti, ciò significa che i dati tendono ad essere distorti verso gli uomini rispetto alle donne e verso i bianchi piuttosto che neri, asiatici, ispanici e indigeni americani. Poiché gli Stati Uniti tendono a eseguire più diagnosi per immagini rispetto al resto del mondo, questi dati vengono compilati in algoritmi che hanno il potenziale per distorcere i risultati in tutto il mondo.

Per il presente studio, i ricercatori hanno studiato algoritmi di imaging medico, come quelli che valutano le scansioni TC per diagnosticare tumori cerebrali o coaguli di sangue nei polmoni. Dei23 insiemi di dati analizzati, il 61% non includeva dati demografici come età, sesso o razza.

Man mano che i modelli di intelligenza artificiale diventeranno più diffusi nella diagnostica per immagini e in altri campi della medicina, spiegano i ricercatori, sarà importante identificare e affrontare potenziali pregiudizi che possono esacerbare le disuguaglianze sanitarie esistenti nell'assistenza clinica.

04 maggio 2023
© Riproduzione riservata

Altri articoli in Scienza e Farmaci

ISCRIVITI ALLA NOSTRA NEWS LETTER
Ogni giorno sulla tua mail tutte le notizie di Quotidiano Sanità.

gli speciali
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001

Sede legale:
Via Giacomo Peroni, 400
00131 - Roma

Sede operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari

Direttore editoriale
Francesco Maria Avitto

Tel. (+39) 06.89.27.28.41

info@qsedizioni.it

redazione@qsedizioni.it

Coordinamento Pubblicità
commerciale@qsedizioni.it
    Joint Venture
  • SICS srl
  • Edizioni
    Health Communication
    srl
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013

Riproduzione riservata.
Policy privacy