Intelligenza artificiale e salute. Oms: “Grande opportunità ma anche molti rischi. Vanno garantite sicurezza ed etica”

Intelligenza artificiale e salute. Oms: “Grande opportunità ma anche molti rischi. Vanno garantite sicurezza ed etica”

Intelligenza artificiale e salute. Oms: “Grande opportunità ma anche molti rischi. Vanno garantite sicurezza ed etica”
“La fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute di modelli linguistici generati dalla IA sta suscitando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” ma anche per questo, sottolinea l'Oms, “è imperativo che i rischi siano esaminati attentamente”.

L’Organizzazione mondiale della sanità prende posizione sull’impiego di strumenti di modelli linguistici di grandi dimensioni (LLM) generati dall’intelligenza artificiale (IA) per proteggere e promuovere il benessere umano, la sicurezza umana e l’autonomia e preservare la salute pubblica. E lo fa invitando alla massima attenzione sul loro uso per garantire sicurezza ed eticità in ogni campo di intervento riguardante la salute delle persone

“Gli LLM – spiega l’Oms – includono alcune delle piattaforme in più rapida espansione come ChatGPT, Bard, Bert e molte altre che imitano la comprensione, l’elaborazione e la produzione della comunicazione umana”.

“La loro fulminea diffusione pubblica e il crescente uso sperimentale per scopi legati alla salute – sottolinea ancora l’Oms – sta generando un notevole entusiasmo per il potenziale di supportare i bisogni di salute delle persone” e anche per questo “è imperativo che i rischi siano esaminati attentamente quando si utilizzano i LLM per migliorare l’accesso alle informazioni sulla salute, come strumento di supporto decisionale o anche per migliorare la capacità diagnostica in contesti con risorse insufficienti per proteggere la salute delle persone e ridurre le disuguaglianze”.

Un freno all’IA per la salute? In realtà no, la stessa Oms si dice infatti “entusiasta dell’uso appropriato delle tecnologie, compresi i LLM, per supportare gli operatori sanitari, i pazienti, i ricercatori e gli scienziati”.

Ma la preoccupazione dell’Oms è “che la cautela che normalmente verrebbe esercitata per qualsiasi nuova tecnologia non venga esercitata in modo coerente con i LLM”. Includendo “l’adesione diffusa ai valori chiave di trasparenza, inclusione, impegno pubblico, supervisione di esperti e valutazione rigorosa”.

“L’adozione precipitosa di sistemi non testati – spiega l’Oms – potrebbe portare a errori da parte degli operatori sanitari, causare danni ai pazienti, erodere la fiducia nell’IA e quindi minare (o ritardare) i potenziali benefici e gli usi a lungo termine di tali tecnologie in tutto il mondo”.

Questi i rischi più importanti sui quali l’Oms invita tutti gli attori ad esercitare “una rigorosa supervisione” affinché le tecnologie vengano utilizzate in modo sicuro, efficace ed etico:

  • I dati utilizzati per addestrare l’IA possono essere distorti, generando informazioni fuorvianti o imprecise che potrebbero comportare rischi per la salute, l’equità e l’inclusione.
  • Gli LLM generano risposte che possono apparire autorevoli e plausibili a un utente finale; tuttavia, queste risposte possono essere completamente errate o contenere gravi errori, soprattutto per le risposte relative alla salute.
  • Gli LLM possono essere addestrati su dati per i quali il consenso potrebbe non essere stato fornito in precedenza per tale utilizzo e gli LLM potrebbero non proteggere i dati sensibili (inclusi i dati sanitari) che un utente fornisce a un’applicazione per generare una risposta.
  • Gli LLM possono essere utilizzati in modo improprio per generare e diffondere disinformazione altamente convincente sotto forma di contenuti testuali, audio o video difficili da distinguere per il pubblico da contenuti sanitari affidabili.

L’Oms era già intervenuta sulla questione nel giugno 2021 pubblicando una vera e propria Guida sull’etica e la governance dell’IA per la salute dove erano stati indicati 6 principi fondamentali da seguire e che oggi l’Oms conferma:

– Proteggere l’autonomia umana: nel contesto dell’assistenza sanitaria, ciò significa che gli esseri umani dovrebbero mantenere il controllo dei sistemi sanitari e delle decisioni mediche; la privacy e la riservatezza dovrebbero essere protette e i pazienti devono fornire un valido consenso informato attraverso adeguati quadri legali per la protezione dei dati.

– Promuovere il benessere e la sicurezza delle persone e l’interesse pubblico. I progettisti di tecnologie di intelligenza artificiale dovrebbero soddisfare i requisiti normativi di sicurezza, accuratezza ed efficacia per casi d’uso o indicazioni ben definiti. Devono essere disponibili misure di controllo della qualità nella pratica e di miglioramento della qualità nell’uso dell’IA.

– Garantire trasparenza, spiegabilità e intelligibilità. La trasparenza richiede che siano pubblicate o documentate informazioni sufficienti prima della progettazione o dell’implementazione di una tecnologia di intelligenza artificiale. Tali informazioni devono essere facilmente accessibili e facilitare una consultazione pubblica e un dibattito significativi su come è progettata la tecnologia e su come dovrebbe o non dovrebbe essere utilizzata.

– Promuovere responsabilità (responsability) e responsabilizzazione (accountability). Sebbene le tecnologie di intelligenza artificiale svolgano compiti specifici, è responsabilità delle parti interessate garantire che vengano utilizzate in condizioni appropriate e da persone adeguatamente formate. Dovrebbero essere disponibili meccanismi efficaci di interrogatorio e di ricorso per individui e gruppi che sono influenzati negativamente da decisioni basate su algoritmi.

– Garantire inclusività ed equità. L’inclusività richiede che l’IA per la salute sia progettata per incoraggiare l’uso e l’accesso più equo possibile, indipendentemente da età, sesso, genere, reddito, razza, etnia, orientamento sessuale, abilità o altre caratteristiche protette dai codici dei diritti umani.

– Promuovere un’IA reattiva e sostenibile. I progettisti, gli sviluppatori e gli utenti dovrebbero valutare in modo continuo e trasparente le applicazioni AI durante l’uso effettivo per determinare se l’IA risponde in modo adeguato e appropriato alle aspettative e ai requisiti. I sistemi di IA dovrebbero anche essere progettati per ridurre al minimo le loro conseguenze ambientali e aumentare l’efficienza energetica. I governi e le aziende dovrebbero affrontare le interruzioni previste sul posto di lavoro, compresa la formazione degli operatori sanitari per adattarsi all’uso dei sistemi di intelligenza artificiale e le potenziali perdite di posti di lavoro dovute all’uso di sistemi automatizzati.

17 Maggio 2023

© Riproduzione riservata

116117, il numero europeo delle cure non urgenti: in Italia dopo 20 anni continua a ‘non rispondere’
116117, il numero europeo delle cure non urgenti: in Italia dopo 20 anni continua a ‘non rispondere’

C’è un numero che in Europa esiste da quasi vent’anni e che dovrebbe servire a una cosa estremamente semplice: evitare che ogni bisogno sanitario finisca al pronto soccorso. È il...

Per la sanità si prevedono tempi di magra. Ocse: “Finita la stagione degli aumenti di spesa post Covid. Tra debito, energia, protezione sociale e difesa incombe una stretta sui bilanci”
Per la sanità si prevedono tempi di magra. Ocse: “Finita la stagione degli aumenti di spesa post Covid. Tra debito, energia, protezione sociale e difesa incombe una stretta sui bilanci”

La spesa sanitaria torna a salire, ma il tempo dell’espansione senza freni è finito. Dopo il balzo degli anni della pandemia e il successivo riassestamento, l’Ocse certifica che nel 2024...

Tubercolosi. Nel 2024 notificati 3.150 casi, in aumento dell’8,9% ma Italia resta un Paese a bassa endemia
Tubercolosi. Nel 2024 notificati 3.150 casi, in aumento dell’8,9% ma Italia resta un Paese a bassa endemia

Sono stati 3.150 i casi di tubercolosi notificati in Italia nel 2024 con un incremento dell’8,9% rispetto all’anno precedente e un tasso di notifica pari a 5,3 casi per 100mila...

Italiani meno sedentari, ma in eccesso di peso, fumo e alcol restano un problema. I dati Istat
Italiani meno sedentari, ma in eccesso di peso, fumo e alcol restano un problema. I dati Istat

Nel 2025 continua a ridursi la sedentarietà (-2,4 punti percentuali rispetto al 2024), problema che ancora riguarda tre persone su 10 nella popolazione di 3 anni e più. Con valori...