IA in sanità, l’Oms: “Chi risponde in caso di errore?”

IA in sanità, l’Oms: “Chi risponde in caso di errore?”

IA in sanità, l’Oms: “Chi risponde in caso di errore?”

Un nuovo report dell’Organizzazione mondiale della sanità analizza lo stato di adozione e regolamentazione dell’intelligenza artificiale nei sistemi sanitari europei

L’intelligenza artificiale entra sempre più spesso nella pratica clinica, supportando i professionisti sanitari nella diagnosi, nella gestione dei dati e nella comunicazione con i pazienti. Ma cresce anche il dubbio: quanto sono sicuri questi strumenti e chi risponde quando qualcosa va storto? A questa domanda prova a rispondere il nuovo report dell’Organizzazione mondiale della sanità, “Artificial intelligence is reshaping health systems: state of readiness across the WHO European region”, che fornisce il primo quadro completo sull’adozione e la regolamentazione dell’IA nei sistemi sanitari europei. La valutazione si basa su dati raccolti in 50 dei 53 Stati membri della Regione europea dell’Oms e analizza strategie nazionali, quadri giuridici ed etici, governance dei dati, preparazione della forza lavoro e adozione pratica dell’IA.

L’uso dell’IA cresce, ma le regole latitano

Secondo l’Oms, l’intelligenza artificiale sta già aiutando a individuare malattie precocemente, ridurre il carico amministrativo e rendere più efficiente il percorso di cura. Tuttavia, la diffusione di questi strumenti procede più velocemente della definizione delle necessarie tutele giuridiche, e le lacune nella governance e nella formazione sono significative. “L’IA sta già supportando i medici, ma chi è responsabile quando un sistema commette un errore o provoca un danno?”, si legge nella nota che accompagna il report. Senza chiarezza legale, avverte l’Oms, clinici e pazienti potrebbero trovarsi in difficoltà: i primi potrebbero esitare a usare gli strumenti digitali, i secondi non avrebbero percorsi chiari di ricorso.

Responsabilità e rischi clinici

Nella pratica tradizionale, l’errore medico ricade sul professionista sanitario. L’intelligenza artificiale cambia questa dinamica: prende decisioni basandosi sui dati. Se questi sono incompleti o distorti, anche le decisioni dell’IA lo saranno, con il rischio di diagnosi mancate, trattamenti errati o cure diseguali. David Novillo Ortiz, consigliere regionale Oms per dati, IA e sanità digitale, sottolinea che “senza standard legali chiari, i clinici potrebbero essere riluttanti a fare affidamento sugli strumenti di IA e i pazienti potrebbero non avere percorsi chiari di ricorso”. Il report evidenzia infatti come meno di un Paese su dieci abbia norme sulla responsabilità civile per stabilire chi risponde in caso di errore o danno provocato da un sistema di IA.

Preparazione disomogenea in Europa

Dallo studio emerge una situazione fortemente disomogenea. Solo quattro Paesi dispongono di una strategia nazionale specifica per l’IA in sanità, mentre altri sette la stanno sviluppando. Nella maggior parte dei Paesi, gli strumenti di IA vengono introdotti senza un quadro normativo chiaro e senza linee guida complete sulla governance dei dati o sulla formazione degli operatori sanitari. Oltre all’incertezza giuridica, citata da quasi nove Paesi su dieci come ostacolo principale, il report segnala che limiti finanziari e scarsa preparazione della forza lavoro rallentano l’adozione. Solo circa un quarto dei Paesi dispone di programmi di formazione in servizio, e appena un quinto include corsi pre-servizio nei curricula sanitari. Anche la governance dei dati resta un tema critico: solo il 30% dei Paesi ha linee guida per l’uso secondario dei dati sanitari e la condivisione transfrontaliera.

Il rischio di una diffusione senza tutele

La rapida adozione dell’IA in sanità senza regole adeguate può generare confusione, rallentare l’innovazione responsabile e ampliare le disuguaglianze tra sistemi sanitari. Il report evidenzia che, nonostante l’IA sia percepita come strumento per migliorare l’assistenza ai pazienti, ridurre il carico sul personale e aumentare l’efficienza, molti Paesi si scontrano con la mancanza di governance e linee guida operative. L’Oms invita i Paesi a chiarire le responsabilità, istituire meccanismi di risarcimento e garantire che i sistemi di IA siano testati in termini di sicurezza, equità ed efficacia prima dell’uso clinico, per costruire fiducia nei pazienti e negli operatori sanitari.

08 Gennaio 2026

© Riproduzione riservata

Italiani meno sedentari, ma in eccesso di peso, fumo e alcol restano un problema. I dati Istat
Italiani meno sedentari, ma in eccesso di peso, fumo e alcol restano un problema. I dati Istat

Nel 2025 continua a ridursi la sedentarietà (-2,4 punti percentuali rispetto al 2024), problema che ancora riguarda tre persone su 10 nella popolazione di 3 anni e più. Con valori...

Natalità. Istat: “Fecondità scende ancora a 1,14 figli per donna, prosegue il calo delle nascite ma popolazione stabile grazie alle migrazioni”
Natalità. Istat: “Fecondità scende ancora a 1,14 figli per donna, prosegue il calo delle nascite ma popolazione stabile grazie alle migrazioni”

Cala ancora il numero di nascite in Italia: 355mila nel 2025, il 3,9% in meno rispetto al 2024. La fecondità scende a 1,14 figli per donna. La popolazione resta però...

Riforma della sanità territoriale al palo. Gimbe: “A rischio obiettivi Pnrr”
Riforma della sanità territoriale al palo. Gimbe: “A rischio obiettivi Pnrr”

La riforma dell’assistenza territoriale, pilastro del Pnrr Missione Salute per avvicinare la sanità ai cittadini, è ancora ben lontana dall’essere realmente operativa. Al 31 dicembre 2025 solo 66 Case della...

La guerra in Medio Oriente ferma un terzo della produzione mondiale di elio. Ecco come le risonanze magnetiche rischiano di spegnersi
La guerra in Medio Oriente ferma un terzo della produzione mondiale di elio. Ecco come le risonanze magnetiche rischiano di spegnersi

La guerra in Iran sta colpendo la sanità mondiale attraverso canali che il dibattito pubblico fatica ancora a mettere a fuoco, concentrato com’è sui prezzi della benzina e sul petrolio....