Responsabilità professionale e tracciabilità decisionale alla luce della Legge italiana sull’Intelligenza Artificiale  

Responsabilità professionale e tracciabilità decisionale alla luce della Legge italiana sull’Intelligenza Artificiale  

Responsabilità professionale e tracciabilità decisionale alla luce della Legge italiana sull’Intelligenza Artificiale  

Gentile Direttore,
l’introduzione dell’Intelligenza Artificiale (IA) nella pratica clinica segna una svolta decisiva per la medicina contemporanea. La Legge 132/2025, in attuazione del Regolamento (UE) 2024/1689 (AI Act), fornisce per la prima volta un quadro normativo unitario sull’impiego dell’IA in sanità, con l’obiettivo di coniugare innovazione tecnologica, tutela dei diritti fondamentali e della responsabilità professionale.

L’IA è riconosciuta come strumento di supporto decisionale, non sostitutivo del giudizio umano: la decisione clinica rimane un atto personale e giuridico, fondato su sapere, coscienza e responsabilità.

La medicina, nella sua dimensione digitale, diventa così una vera res medica sub specie iuris, una realtà professionale osservata e regolata attraverso la lente del diritto, dove la precisione scientifica deve convivere con l’etica della responsabilità.

Un nuovo paradigma normativo
La Legge 132/2025 si inserisce nel solco della Legge 24/2017 (Gelli-Bianco) e della Legge 219/2017 sul consenso informato e sulle disposizioni anticipate di trattamento, dove “si incontrano l’autonomia decisionale del paziente e la competenza, l’autonomia professionale e la responsabilità del medico”.
Il legislatore riconosce che la trasformazione digitale impone una ridefinizione del concetto stesso di diligenza professionale: non solo competenza clinica, ma anche capacità di comprendere, gestire e sorvegliare gli strumenti tecnologici impiegati.
L’IA generativa e generale applicata alla medicina è classificata dall’IA Act per lo più come sistema ad alto rischio, che può operare solo sotto supervisione umana qualificata e previa validazione. L’obiettivo è assicurare trasparenza, tracciabilità e tutela dei diritti del paziente, riaffermando che la decisione medica non è mai delegabile all’algoritmo.

Diligenza e controllo dell’algoritmo
L’articolo 11 della Legge 132/2025 stabilisce che il medico è responsabile dell’uso dei sistemi di IA e deve validare ogni proposta algoritmica.
Il riferimento all’art. 1176, comma 2, del Codice Civile — la “diligenza qualificata” — assume una nuova portata: conoscere la scienza medica non basta più; occorre comprendere la logica, i limiti e i presupposti epistemologici dell’IA.
L’errore dell’algoritmo non costituisce mai causa di esonero, ma se il professionista adotta un sistema non validato o non conforme è già di per sé responsabile per colpa. L’atto medico resta comunque una decisione informata e tracciabile, nella quale la tecnologia non attenua, la responsabilità personale del professionista.

Supervisione e tracciabilità decisionale
La supervisione umana obbligatoria, prevista dall’articolo 14 dell’IA act, rappresenta il fulcro del nuovo diritto sanitario digitale.
Ogni sistema di IA ad alto rischio deve operare sotto il controllo diretto di personale sanitario qualificato e ogni utilizzo deve essere registrato nel Fascicolo Sanitario Elettronico (FSE 2.0).
Nel FSE devono essere riportati il sistema impiegato, chi lo ha utilizzato, la data, la proposta algoritmica e la decisione finale. Tali dati hanno valore clinico e probatorio, documentando la catena di responsabilità e consentendo la ricostruzione della “storia” decisionale in caso di contenzioso.
La tracciabilità diventa così un indice giuridico della qualità della cura: la trasparenza diventa parte integrante della responsabilità.

Consenso informato “digitale”
La Legge 132/2025, agli artt. 7 e 13, introduce l’obbligo di consenso informato specifico all’uso dell’IA, in forma scritta o digitale, in armonia con la Legge 219/2017.
Il paziente ha il diritto di sapere quando e come l’IA contribuisce alla diagnosi o alla terapia. Deve essere informato su funzione, limiti, rischi e garanzie di controllo umano dei sistemi. E punto fondamentale che l’IA non decide, ma assiste medico e paziente nella strategia diagnostico-terapeutica. Dal 10 ottobre 2025 il consenso informato non riguarda più solo la scelta delle cure, ma anche la tecnologia IA che partecipa alla cura.
Il consenso si trasforma così in strumento di partecipazione consapevole e di responsabilità condivisa, rafforzando la relazione terapeutica che mantiene la dimensione dialogica anche nell’era digitale.

Audit clinico e sorveglianza sull’IA
L’audit clinico diventa il luogo operativo della responsabilità professionale.
Il Regolamento europeo AI Act impone audit periodici e un monitoraggio post-market per i sistemi di IA ad alto rischio. Ogni azienda sanitaria dovrebbe istituire Comitati di sorveglianza sull’IA, con compiti di audit, validazione indipendente e controllo dei bias.
L’audit sull’IA consente di verificare coerenza, sicurezza e affidabilità degli algoritmi e di valutarne l’impatto sull’appropriatezza e la qualità delle cure.
Si tratta di un esercizio continuo di trasparenza e apprendimento, che trasforma la responsabilità in un processo dinamico di verifica e miglioramento.

La Piattaforma Nazionale AGENAS
L’articolo 10 (che introduce modifiche al Decreto-Legge 179/2012 “Decreto Crescita 2.0”) istituisce la Piattaforma Nazionale di Intelligenza Artificiale in Sanità, affidata ad AGENAS, come infrastruttura pubblica di garanzia e controllo.
La piattaforma raccoglie e valida gli algoritmi in uso, ne certifica il livello di rischio, assicura interoperabilità e pseudonimizzazione dei dati, sotto la vigilanza del Garante Privacy e dell’Agenzia per la Cybersicurezza Nazionale.
È il primo tentativo di governance pubblica dell’IA in sanità, volto a prevenire disuguaglianze tecnologiche e garantire trasparenza nell’utilizzo dei sistemi decisionali automatizzati.
Un passo fondamentale verso una medicina algoritmica ma controllata, equa e tracciabile.

Etica, diritto e “res medica sub specie iuris”
L’uso dell’IA in sanità riporta al centro la questione del rapporto tra sapere medico, tecnica e norma giuridica. L’atto clinico, quando mediato dall’IA, diventa una res medica sub specie iuris: un evento tecnico che assume valore giuridico per la sua tracciabilità, la sua documentazione e la sua imputabilità personale.
La medicina non è solo scienza della cura, ma anche atto di responsabilità pubblica, inserito in un sistema di garanzie e diritti.
In questo senso, quella che chiamo la “bioetica dell’IA” si fonda sulla tracciabilità delle scelte e sulla riconducibilità di ogni decisione a un soggetto umano consapevole.
La “res medica” non si dissolve nell’algoritmo: ne emerge invece una medicina più trasparente, riflessiva e giuridicamente consapevole.

Conclusione
La Legge 132/2025 segna l’ingresso in una nuova stagione della medicina digitale: quella della maturità giuridica dell’innovazione.
L’IA non sostituisce il medico, ma ne amplifica le capacità e la responsabilità. La sua efficacia dipende dalla formazione, dalla tracciabilità e dall’etica di chi la governa.
La medicina del futuro sarà tanto più efficace quanto più l’IA le consentirà di restare umana: un equilibrio tra intelligenza artificiale e morale, tra norma e coscienza, tra precisione e compassione.
Solo mantenendo viva la “res medica sub specie iuris”, la medicina potrà continuare a essere non solo scienza del corpo, ma diritto e responsabilità verso la persona.

Mariella Immacolato
Medico legale, già Direttrice UOC Medicina Legale, AUSL Toscana Nord Ovest – Direttivo della Consulta di Bioetica Onlus

Mariella Immacolato

14 Novembre 2025

© Riproduzione riservata

Ricominciare dalla prevenzione: prendersi cura dell’Italia che cambia. La visione di Boehringer per un Paese più sano
Ricominciare dalla prevenzione: prendersi cura dell’Italia che cambia. La visione di Boehringer per un Paese più sano

Gentile Direttore, in Italia, 24 milioni di persone convivono con almeno una patologia cronica. Un numero che non rappresenta più un semplice dato epidemiologico, ma il segno tangibile di una...

Istituire la scuola di specializzazione di medicina generale per valorizzare la professione
Istituire la scuola di specializzazione di medicina generale per valorizzare la professione

Gentile Direttore,l’ASSIMEFAC, da sempre impegnata a rendere la formazione in Medicina Generale/Medicina di Famiglia disciplina accademica, prende atto, con estrema soddisfazione, dell’emendamento 71.0.3 alla Legge di Bilancio, presentato dai senatori...

Irregolarità agli esami del semestre-filtro a Medicina: il prevedibile epilogo di una riforma sbagliata
Irregolarità agli esami del semestre-filtro a Medicina: il prevedibile epilogo di una riforma sbagliata

Gentile Direttore,abbiamo atteso qualche giorno prima di scrivere le nostre considerazioni con la speranza di esserci sbagliati e che i brogli evidenziati dai media fossero eventi isolati. Invece sembra che...

Liste di attesa e libera professione: ricordiamoci quella scena di M*A*S*H
Liste di attesa e libera professione: ricordiamoci quella scena di M*A*S*H

Gentile Direttore,quando mi confronto con situazioni che vedono al centro la ricerca di un facile capro espiatorio, come nel caso del ruolo della libera professione accusata di contribuire pesantemente a...