Quotidiano on line
di informazione sanitaria
Mercoledì 01 MAGGIO 2024
Studi e Analisi
segui quotidianosanita.it

Intelligenza Artificiale LMM. Dall’Oms la nuova linea guida per gestire i benefici e difendersi dai rischi in ambito sanitario

di E.M.

Oltre 40 le raccomandazioni che devono essere prese in considerazione da Governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei modelli multimodali di grandi dimensioni (LMM), tecnologia di intelligenza artificiale generativa in rapida crescita su piattaforme come ChatGPT, Bard e Bert. Gli obiettivi sono promuovere e proteggere la salute delle popolazioni IL DOCUMENTO

18 GEN -

L’intelligenza artificiale corre veloce, anzi velocissima. A spadroneggiare sempre di più sono i modelli multimodali di grandi dimensioni (LMM), un tipo di tecnologia di IA che tiene ormai banco su diverse piattaforme, come ChatGPT, Bard e Bert, e con applicazioni nell'assistenza sanitaria, nella ricerca scientifica, nella salute pubblica e nello sviluppo di farmaci.

Ma tra i possibili benefici per la salute delle nuove tecnologie, ci sono anche tanti rischi in agguato. Si va dalla produzione di affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano le informazioni per prendere decisioni sulla salute, fino al rischio che vengano impropriamente delegate a un LMM scelte difficili sulla salute delle persone.

Inoltre, come altre forme di IA, prestano anche il fianco ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità degli algoritmi (possono essere “addestrati” su dati di scarsa qualità o distorti, sia per razza, sesso, identità di genere o età) e più in generale, l’erogazione di assistenza sanitaria.

Ecco quindi che dall’Organizzazione Mondiale della Sanità arrivano nuove coordinare per “navigare” con “intelligenza”.

È stata presentata oggi in conferenza stampa la Nuova guida sull’etica e la governance dei modelli multimodali di grandi dimensioni dell’IA.

Sono oltre 40 le raccomandazioni che devono essere prese in considerazione da Governi, aziende tecnologiche e fornitori di assistenza sanitaria per garantire l’uso appropriato dei LMM. In ballo c’è la necessità di promuovere e proteggere la salute delle popolazioni.

I LMM, spiega una nota dell’Oms, possono accettare uno o più tipi di dati in ingresso, come testi, video e immagini, e generare diversi output non limitati al tipo di dati immessi. Sono unici per la loro capacità di imitare la comunicazione umana e di svolgere compiti per i quali non sono stati esplicitamente programmati. Sono poi stati adottati più rapidamente di qualsiasi altra applicazione consumer nella storia, con diverse piattaforme, come appunto ChatGPT, Bard e Bert.

“Le tecnologie di intelligenza artificiale generativa hanno il potenziale per migliorare l’assistenza sanitaria, ma solo se coloro che sviluppano, regolano e utilizzano queste tecnologie identificano e tengono pienamente conto dei rischi associati – ha dichiarato il dottor Jeremy Farrar, Chief Scientist dell’Oms – abbiamo bisogno di informazioni e politiche trasparenti per gestire la progettazione, lo sviluppo e l’uso dei LMM, al fine di ottenere risultati sanitari migliori e superare le persistenti disuguaglianze sanitarie".

Potenziali benefici e rischi
La nuova Linea guida dell’Oms delinea cinque aree di applicazioni dei LMM nell’ambito della salute:

Insomma, un campo di applicazione vastissimo. Che nasconde pro e contro: se da un lato i LMM iniziano a essere utilizzati per scopi specifici legati alla salute, dall’altro avverte l’Oms è documentato il rischio di produrre affermazioni false, imprecise, tendenziose o incomplete, che potrebbero danneggiare le persone che utilizzano tali informazioni per prendere decisioni sulla salute. Inoltre, i LMM possono essere addestrati su dati di scarsa qualità o distorti, sia per razza, etnia, ascendenza, sesso, identità di genere o età.

La guida descrive anche rischi più ampi per i sistemi sanitari, come l’accessibilità e l’economicità dei LMM più performanti. Gli LMM, ammonisce Oms, possono anche incoraggiare “pregiudizi di automazione” da parte degli operatori sanitari e dei pazienti, in quanto vengono trascurati errori che altrimenti sarebbero stati identificati o vengono impropriamente delegate a un LMM scelte difficili.

I LMM, come altre forme di IA, come abbiamo visto, sono poi anche vulnerabili ai rischi di cybersecurity che potrebbero mettere a repentaglio le informazioni dei pazienti o l’affidabilità di questi algoritmi e, più in generale, la fornitura di assistenza sanitaria.

Coinvolgere governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile. Per creare LMM sicuri ed efficaci, l’Oms sottolinea la necessità di coinvolgere diverse parti interessate: governi, aziende tecnologiche, fornitori di servizi sanitari, pazienti e società civile, in tutte le fasi dello sviluppo e dell’impiego di tali tecnologie, comprese la loro supervisione e regolamentazione.

“I governi di tutti i Paesi devono collaborare per regolamentare in modo efficace lo sviluppo e l’uso delle tecnologie di intelligenza artificiale, come i LMM", ha dichiarato il dott. Alain Labrique, direttore dell’Oms per la salute digitale e l’innovazione nella divisione scientifica.

Le Raccomandazioni chiave ai Governi

La nuova guida dell’Oms contiene quindi raccomandazioni per i governi, che hanno la responsabilità primaria di definire gli standard per lo sviluppo e la diffusione dei LMM, nonché per la loro integrazione e il loro utilizzo per scopi medici e di salute pubblica.

I governi dovrebbero;

- Investire o fornire infrastrutture pubbliche o senza scopo di lucro, tra cui potenza di calcolo e set di dati pubblici, accessibili agli sviluppatori del settore pubblico, privato e non profit, che richiedano agli utenti di aderire a principi e valori etici in cambio dell’accesso.

- Utilizzare leggi, politiche e regolamenti per garantire che i LMM e le applicazioni utilizzate nell’assistenza sanitaria e nella medicina, a prescindere dal rischio o dal beneficio associato alla tecnologia di IA, rispettino gli obblighi etici e gli standard dei diritti umani che riguardano, ad esempio, la dignità, l’autonomia o la privacy di una persona.

- Assegnare a un’agenzia di regolamentazione, esistente o nuova, il compito di valutare e approvare i LMM e le applicazioni destinate all’assistenza sanitaria o alla medicina, in base alle risorse disponibili.

- Introdurre verifiche e valutazioni d’impatto obbligatorie dopo il rilascio, anche per quanto riguarda la protezione dei dati e i diritti umani, da parte di terzi indipendenti quando un LMM viene utilizzato su larga scala. Le valutazioni di audit e di impatto dovrebbero essere pubblicate e dovrebbero includere risultati e impatti disaggregati per tipo di utente, ad esempio per età, razza o disabilità.

Non solo, la guida include anche le raccomandazioni chiave per gli sviluppatori di LMM, che dovrebbero garantire che:

- I LMM non sono progettati solo da scienziati e ingegneri. I potenziali utenti e tutte le parti interessate dirette e indirette, compresi i fornitori di servizi medici, i ricercatori scientifici, gli operatori sanitari e i pazienti, dovrebbero essere coinvolti fin dalle prime fasi dello sviluppo dell’IA in una progettazione strutturata, inclusiva e trasparente e avere l’opportunità di sollevare questioni etiche, esprimere preoccupazioni e fornire input per l’applicazione di IA in esame.

- I LMM sono progettati per svolgere compiti ben definiti con l’accuratezza e l’affidabilità necessarie per migliorare la capacità dei sistemi sanitari e promuovere gli interessi dei pazienti. Gli sviluppatori dovrebbero infine anche essere in grado di prevedere e comprendere i potenziali esiti secondari.

E.M.



18 gennaio 2024
© Riproduzione riservata

Allegati:

spacer Il documento

Altri articoli in Studi e Analisi

ISCRIVITI ALLA NOSTRA NEWS LETTER
Ogni giorno sulla tua mail tutte le notizie di Quotidiano Sanità.

gli speciali
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001

Sede legale:
Via Giacomo Peroni, 400
00131 - Roma

Sede operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari

Direttore editoriale
Francesco Maria Avitto

Tel. (+39) 06.89.27.28.41

info@qsedizioni.it

redazione@qsedizioni.it

Coordinamento Pubblicità
commerciale@qsedizioni.it
    Joint Venture
  • SICS srl
  • Edizioni
    Health Communication
    srl
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013

Riproduzione riservata.
Policy privacy