Quotidiano on line
di informazione sanitaria
Sabato 04 MAGGIO 2024
Scienza e Farmaci
segui quotidianosanita.it

Intelligenza artificiale. “Non possiamo delegare tutto all’IA, l’ultima parola deve rimanere al medico. Fondamentale affrontare il tema etico”. Intervista a Eugenio Santoro (Mario Negri)

di Ester Maragò

“Affidarsi a uno strumento che può decidere quali pazienti curare e quali non curare perché hanno meno chance di farcela è una questione etica. In sintesi bisogna identificare qual è il limite oltre il quale l’intelligenza artificiale non può andare. Evidenza scientifica, sicurezza, appropriatezza, rispetto dell’equità e regolamentazione. Da questi non si può prescindere per passare da un uso ludico o sperimentale a un uso professionale”, spiega il responsabile dell’unità di Ricerca in Sanità Digitale e Terapie Digitali, Istituto di Ricerche Farmacologiche Mario Negri

11 MAR -

Il futuro è già qui. E da tempo. Di Intelligenza artificiale (IA) se ne parla dal secondo dopoguerra ma, dopo un cambio di passo alla fine degli anni 80, è ora esplosa grazie a computer sempre più potenti e performanti in grado di attingere ad una mole di informazioni inimmaginabile.
Un mare magnum di dati che arrivano dalle innumerevoli appendici digitali entrate ormai nell’uso comune: smartphone, app, smartwatch e braccialetti intelligenti fino alla tecnologia indossabile come le magliette che contengono al loro interno dei sensori, solo per citarne alcune.

A questo si aggiungono i dati delle conversazioni reperibili su Internet, in particolare sui social media e quelli dei tanti database omici esistenti.
Uno scenario nuovo che ha mutato il perimetro d’azione dell’IA: siamo passati dall’intelligenza artificiale tradizionale, deterministica, in parole semplici “se succede questo allora succede quest’altro”, a quella del “machine learning” cioè il computer che, senza essere programmato, impara da solo attraverso i tantissimi dati disponibili.

Insomma, per l’IA un salto di qualità epocale che ha interessato l’ambito medico scientifico con il suo vastissimo bacino di informazioni. Dal chatBOT, sistema virtuale basato su un software di intelligenza artificiale, configurato per rispondere in maniera automatizzata alle domande più frequenti delle persone, al chatGPT in grado di generare testi coerenti e di qualità, rispondere a quesiti e creare contenuti, fino all’esordio della Neuralink di Elon Musk nella sperimentazione clinica delle interfacce cervello che ha solleticato molti sulle potenzialità, ma anche allarmato sui pericoli di questa tecnologia, il passo è stato quindi breve.

A guidarci nel viaggio in questo nuovo mondo di grandi opportunità, ma anche di tanti possibili rischi è Eugenio Santoro, responsabile dell’unità di Ricerca in Sanità Digitale e Terapie Digitali, Istituto di Ricerche Farmacologiche Mario Negri Irccs. In questa intervista, che dà il “la” ad un ciclo di interventi che Quotidiano Sanità vuole dedicare all’Intelligenza Artificiale, l’esperto ci ha aiutati a capire come orientarci tra queste novità che sempre di più diventeranno parte integrante nella gestione della salute. Soprattutto ha lanciato un monito: l’IA va regolamentata e al più presto: “In caso contrario il mercato rimarrà appannaggio del privato. Uno scenario da evitare: perché stiamo parlando della salute delle persone e le discrepanze tra il sistema pubblico e quello privato, non devono esistere”.

Professore Santoro, l’Intelligenza artificiale conquista sempre di più posizioni. E i suoi potenziali ambiti di applicazione fanno tremare i polsi, soprattutto quando si parla di salute…

Parlare di Intelligenza artificiale è come uscire fuori dall’atmosfera della terra e scoprire un universo pieno di opportunità. È esplosa grazie a computer sempre più performanti rispetto al passato, che riescono ad attingere a una quantità incredibili di dati prodotti negli ultimi 10 anni. È stato quindi un passo automatico, affidandosi al machine learning, pensare di utilizzarla, per interpretare radiografie, Tac, Ecg, ma soprattutto per fare diagnosi. Esistono sistemi, anche validati dal punto scientifico, che dimostrano come si possa raggiungere una diagnosi con un’affidabilità spesso comparabile a quella dei migliori specialisti in determinate aree mediche. Qualcuno ha pensato anche di utilizzarla nell’ambito del cosiddetto decision making: i sistemi per il supporto ai processi decisionali sono sempre esistiti, oggi però attraverso il machine learning hanno una marcia in più e possono essere utilizzati per cercare di individuare il trattamento farmacologico più adatto per ogni determinato paziente.

C’è poi tutta l’area della ricerca. Un campo vastissimo, penso all’ambito delle malattie rare, all’identificazione delle molecole più promettenti da sperimentare in ambito clinico che ridurrebbero i tempi di conduzione degli studi clinici. Recentemente negli Stati Uniti sono stati scoperti nuovi antibiotici attraverso tecniche di intelligenza artificiale. Esistono, poi, evidenze scientifiche sulla capacità dei sistemi di intelligenza artificiale di identificare particolari tipi di tumore; negli Stati Uniti continuano, inoltre, ad aumentare le applicazioni di intelligenza artificiale (sono oltre 700) approvate dalla Food and Drug Administration come dispositivi medici. A queste aree si affianca poi quella della predizione.

Vale a dire?
Oggi esistono sistemi che basandosi su dati clinici digitalizzati, pensiamo per esempio agli Ecg, sono in grado di identificare e di predire particolari eventi che potranno accadere a distanza di anni. Si possono individuare pazienti a rischio sui quali fare maggiore prevenzione ed evitare che il quadro si aggravi.
E ancora, c’è tutta l’area del Natural Language processing, che abbraccia le potenzialità proprie di questi strumenti nell’interpretare il testo scritto contenuto in una cartella clinica informatizzata. Spesso è un testo libero redatto dai clinici e interpretarlo è sempre stato molto complicato. Grazie al Natural Language processing è possibile farlo estraendo contenuti informativi per la gestione del paziente che altrimenti sarebbero andati persi.

L’utilizzo dell’Ai non è scevro da potenziali rischi. I dati dai quali attinge potrebbero essere privi di una rigorosa validazione scientifica…
Dobbiamo fare delle distinzioni. Quando il sistema di machine learning viene istruito su dati di letteratura scientifica provenienti, ad esempio, da Medline e da linee guida – che, sia ben inteso, sicuramente evolvono nel tempo - possiamo anche stare relativamente tranquilli, ma a patto che quella sia la fonte ufficiale. Discorso diverso è se si utilizzano altre fonti. In questo momento assistiamo ad aspre critiche sul fatto che le conoscenze di chatGPT attingono da Internet e non soltanto da database specializzati. È chiaro che questo espone a dati fallati, per questa ragione si sta andando verso strumenti “alla chatGPT” ma più orientati all’ambito medico.

Inoltre, la letteratura scientifica riconosce che in determinati contesti possano esserci importanti problemi di bias legati al fatto che il sistema è stato istruito su una popolazione non rappresentativa. Diventa quindi fondamentale che nel training di questi sistemi ci sia la maggiore rappresentatività possibile di tutte le minoranze, anche di quelle di genere. Paradigmatico il caso di Babylon health, sistema inglese che per la diagnosi di infarto forniva risultati diversi a seconda del genere del paziente. Un errore.

Ma c’è un altro problema: quello dell’incompletezza dei dati. Il sistema si istruisce su dati che noi forniamo, come quelli contenuti nella cartella clinica. Se mancano delle informazioni perché non le ho raccolte o perché le ho raccolte male è chiaro che il rischio di errore è più elevato perché parte da dati incompleti o parziali che danno luogo a bias. La completezza del dato è quindi fondamentale.

Sicuramente c’è bisogno di un orientamento e soprattutto di paletti per evitare un Far west dell’IA. Il ministero della Salute ha prodotto nel 2021 un documento ad hoc ma, considerando la velocità con la quale i sistemi di IA vanno avanti, dovrebbe essere aggiornato?
Alcune indicazioni contenute nel documento sono valide ancora oggi. A partire dalla necessità di classificare questi strumenti come dei veri e propri dispositivi medici di nuova generazione basati su software. Questo significa che un produttore, nel momento in cui sviluppa il suo strumento di intelligenza artificiale, deve prima richiedere l’autorizzazione per la sua immissione sul mercato. Il che presuppone, in base peraltro alla nuova regolamentazione sui dispositivi medici entrata in vigore a livello europeo, che siano fatte delle validazioni scientifiche molto attente supportate in alcuni casi anche da studi clinici che garantiscano quanto meno la safety, cioè la sicurezza dello strumento. Il passo successivo dovrà essere quello di dimostrarne anche l’efficacy. E questo presuppone una ricerca clinica ancora più solida.

La maggior parte dei sistemi oggi prodotti hanno però prove di efficacia piuttosto deboli. Come uscire dall’impasse?
Con il contributo delle società scientifiche: hanno un ruolo importantissimo. Paradigmatico sotto questo punto di vista è il lavoro svolto dall’Istituto superiore di sanità. Penso ad esempio a quanto realizzato nell’ambito della sanità digitale in particolare della telemedicina, con il contributo della varie società scientifiche. Una modalità che dovrebbe essere replicata anche nella IA.
Manca però il tassello finale e forse il più importante.

Quale?
Fatta salva la loro regolamentazione come dispositivi medici per l’emissione sul mercato, l’anello mancante sarà la loro prescrivibilità e rimborsabilità di cui dovrà farsi carico il sistema. Almeno laddove ci siano chiare evidenze di efficacia. In caso contrario, il mercato rimarrà appannaggio solo del privato. Uno scenario da evitare: stiamo parlando della salute delle persone e le discrepanze tra il sistema pubblico e quello privato, non devono esistere.

Qualcuno potrebbe oppugnare che regolamentazione fa rima con burocratizzazione e quindi con un rallentamento del processo tecnologico…
Regolamentare non significa impedire che il progresso possa fare la sua parte. Regolamentare garantisce equità, appropriatezza, anche economica, e soprattutto garantisce la sicurezza dei pazienti che poi usufruiranno di questi strumenti. Le “istituzioni” in collaborazione con le società scientifiche devono quindi iniziare a muoversi e anche in fretta se non vogliamo tradire i principi di universalità e sicurezza che caratterizzano il sistema sanitario italiano.

A chi spetterà in futuro l’ultima parola?
Non possiamo delegare tutto all’intelligenza artificiale: è un supporto. L’ultima parola rimane al medico, che decide se utilizzarla o meno. L’empatia è fondamentale, così come è fondamentale che si affronti questo tema dal punto di vista etico. Affidarsi a uno strumento che può decidere quali pazienti curare e quali non curare perché hanno meno chance di farcela è una questione etica. In un suo ipotetico uso sul fine vita potrebbe essere utilizzato per decidere quando è arrivato il momento di non prestare più cure. In sintesi bisogna identificare qual è il limite oltre il quale l’intelligenza artificiale non può andare.

Sintetizzando quali sono i punti cardine per navigare in questo mare magnum di opportunità schivando i rischi in agguato?
Evidenza scientifica, sicurezza, appropriatezza, rispetto dell’equità e regolamentazione. Da questi non si può prescindere per passare da un uso ludico o sperimentale a un uso professionale.

Ester Maragò



11 marzo 2024
© Riproduzione riservata

Altri articoli in Scienza e Farmaci

ISCRIVITI ALLA NOSTRA NEWS LETTER
Ogni giorno sulla tua mail tutte le notizie di Quotidiano Sanità.

gli speciali
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001

Sede legale:
Via Giacomo Peroni, 400
00131 - Roma

Sede operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari

Direttore editoriale
Francesco Maria Avitto

Tel. (+39) 06.89.27.28.41

info@qsedizioni.it

redazione@qsedizioni.it

Coordinamento Pubblicità
commerciale@qsedizioni.it
    Joint Venture
  • SICS srl
  • Edizioni
    Health Communication
    srl
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013

Riproduzione riservata.
Policy privacy