quotidianosanità.it

stampa | chiudi


Giovedì 18 GENNAIO 2024
Intelligenza Artificiale LMM. Dall’Oms la nuova linea guida per gestire i benefici e difendersi dai rischi in ambito sanitario

Oltre 40 le raccomandazioni che devono essere prese in considerazione da Governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei modelli multimodali di grandi dimensioni (LMM), tecnologia di intelligenza artificiale generativa in rapida crescita su piattaforme come ChatGPT, Bard e Bert. Gli obiettivi sono promuovere e proteggere la salute delle popolazioni IL DOCUMENTO

L’intelligenza artificiale corre veloce, anzi velocissima. A spadroneggiare sempre di più sono i modelli multimodali di grandi dimensioni (LMM), un tipo di tecnologia di IA che tiene ormai banco su diverse piattaforme, come ChatGPT, Bard e Bert, e con applicazioni nell'assistenza sanitaria, nella ricerca scientifica, nella salute pubblica e nello sviluppo di farmaci.

Ma tra i possibili benefici per la salute delle nuove tecnologie, ci sono anche tanti rischi in agguato. Si va dalla produzione di affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano le informazioni per prendere decisioni sulla salute, fino al rischio che vengano impropriamente delegate a un LMM scelte difficili sulla salute delle persone.

Inoltre, come altre forme di IA, prestano anche il fianco ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità degli algoritmi (possono essere “addestrati” su dati di scarsa qualità o distorti, sia per razza, sesso, identità di genere o età) e più in generale, l’erogazione di assistenza sanitaria.

Ecco quindi che dall’Organizzazione Mondiale della Sanità arrivano nuove coordinare per “navigare” con “intelligenza”.
È stata presentata oggi in conferenza stampa la Nuova guida sull’etica e la governance dei modelli multimodali di grandi dimensioni dell’IA.

Sono oltre 40 le raccomandazioni che devono essere prese in considerazione da Governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei LMM. In ballo c’è la necessità di promuovere e proteggere la salute delle popolazioni.

I LMM, spiega una nota dell’Oms, possono accettare uno o più tipi di dati in ingresso, come testi, video e immagini, e generare diversi output non limitati al tipo di dati immessi. Sono unici per la loro capacità di imitare la comunicazione umana e di svolgere compiti per i quali non sono stati esplicitamente programmati. Sono poi stati adottati più rapidamente di qualsiasi altra applicazione consumer nella storia, con diverse piattaforme, come appunto ChatGPT, Bard e Bert.

“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati – ha dichiarato il dottor Jeremy Farrar, Chief Scientist dell’Oms – abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie".

Potenziali benefici e rischi
La nuova Linea guida dell’Oms delinea cinque aree di applicazioni dei LMM nell’ambito della salute:

Insomma, un campo di applicazione vastissimo. Che nasconde pro e contro: se da un lato i LMM iniziano a essere utilizzati per scopi specifici legati alla salute, dall’altro avverte l’Oms è documentato il rischio di produrre affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sulla salute. Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età.

La guida descrive anche rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità dei LMM più performanti. Gli LMM, ammonisce Oms, possono anche incoraggiare “pregiudizi di automazione” da parte degli operatori sanitari e dei pazienti, in quanto vengono trascurati errori che altrimenti sarebbero stati identificati o vengono impropriamente delegate a un LMM scelte difficili.

I LMM, come altre forme di IA, come abbiamo visto, sono poi anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.

Coinvolgere governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile. Per creare LMM sicuri ed efficaci, l’Oms sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.

“I governi di tutti i Paesi devono collaborare per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come i LMM", ha dichiarato il dott. Alain Labrique, direttore dell’Oms per la salute digitale e l’innovazione nella divisione scientifica.

Le Raccomandazioni chiave ai Governi

La nuova guida dell’Oms contiene quindi raccomandazioni per i governi, che hanno la responsabilità primaria di definire gli standard per lo sviluppo e la diffusione dei LMM, nonché per la loro integrazione e il loro utilizzo per scopi medici e di salute pubblica.

I governi dovrebbero;

- Investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso.

- Utilizzare leggi, politiche e regolamenti per garantire che i LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di IA, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, la dignità, l’autonomia o la privacy di una persona.

- Assegnare a un’agenzia di regolamentazione, esistente o nuova, il compito di valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili.

- Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.

Non solo, la guida include anche le raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:

- I LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione di IA in esame.

- I LMM sono progettati per svolgere compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero infine anche essere in grado di prevedere e comprendere i potenziali esiti secondari.

E.M.

© RIPRODUZIONE RISERVATA