Intelligenza artificiale (IA) nei processi di cura: riflessioni organizzative e giuridiche  

Intelligenza artificiale (IA) nei processi di cura: riflessioni organizzative e giuridiche  

Intelligenza artificiale (IA) nei processi di cura: riflessioni organizzative e giuridiche  

Gentile Direttore,
molto si sta dicendo (e facendo) sul tema dell’applicazione dell’IA nei processi di cura. La sua introduzione può supportare il processo decisionale, migliorare il percorso diagnostico-terapeutico, il processo assistenziale e il monitoraggio dei pazienti, in tanti setting di cura. Nell’organizzazione può ottimizzare la gestione delle risorse, aumentare l’efficienza e ridurre i costi.

L’aspetto qualificante è che l’IA può davvero essere fonte di aiuto e di supporto alle professioni sanitarie. Ad esempio, può creare piani di cura personalizzati per i pazienti, basati sui dati oggettivi e sulla storia clinica. Ancora, vi sono tecnologie che possono identificare i fattori di rischio cadute in soggetti fragili e quindi costruire modelli predittivi per evitare tale rischio; possono costituire un supporto nelle valutazioni cliniche e un aiuto nell’interpretazione e nell’analisi di dati, identificando relazioni causa-effetto, rendendo più agevoli i percorsi di cura ed alleggerendo il carico burocratico.

Inoltre, all’interno dei piani di cura, potrebbe integrare i dati provenienti dalle valutazioni di diversi professionisti e favorire la tanto desiderata integrazione multiprofessionale. Ancora, potrebbe raccogliere dati e annotazioni non strutturate, provenienti dalla documentazione clinica e proporre degli alert che identifichino nuovi problemi a cui prestare attenzione durante il percorso di cura.

Diversa è la questione nel mondo della relazione d’aiuto, delle emozioni, del contatto con la persona assistita, delle decisioni che includono gli aspetti etici del processo di cura. In questi ambiti si sta riflettendo molto su come integrare quello che solo l’uomo può fare con quello che l’IA può aiutare a fare.

E’ chiaro che tutto questo mette le organizzazioni e i professionisti di fronte a considerazioni etiche, deontologiche e giuridiche. Una domanda, fra le altre, è come la legge Gelli sulla responsabilità professionale si possa confrontare con la IA.

Si ritiene che laddove l’IA vada ad assistere i sanitari nelle scelte e nelle decisioni cliniche la responsabilità ultima per il trattamento sanitario su un paziente ricada in caso sulla struttura sanitaria, che ne risponderà a titolo contrattuale ex artt. 1218 e 1228 del codice civile ed eventualmente, ma a titolo extracontrattuale, sull’esercente la professione sanitaria.

Qualora poi si accerti la difettosità del sistema di IA, si potrà invocare la responsabilità per danni nei confronti dell’azienda produttrice, anche alla luce della Direttiva (UE) 2024/2853 del Parlamento Europeo sulla responsabilità per danno da prodotti difettosi, che estende la nozione di “prodotto” ai software, a sistemi operativi, alle applicazioni e ai sistemi di intelligenza artificiale.

Sempre con riferimento alla legge Gelli le indicazioni che provengono da un sistema di IA, purchè nota e accessibile la base di conoscenza, potrebbero considerarsi quali raccomandazioni previste dalle linee guida, ai sensi dell’art. 5 della legge 24/2017 che dispone che l’esercente la professione sanitaria è tenuto, nell’esecuzione delle prestazioni sanitarie, ad attenersi alle raccomandazioni previste dalle linee guida o, in mancanza, alle buone pratiche clinico -assistenziali, fatta salva la specificità del caso concreto. Infatti la risposta proveniente dal sistema di IA può essere ritenuta la combinazione del background di indicazioni scientifiche consolidate con le informazioni riguardanti il paziente (Alfio Guido Grasso, 2023).

Da ultimo occorre ricordare come il Comitato Nazionale per la Bioetica, il 29 maggio 2020, ha pubblicato il documento “Intelligenza artificiale e medicina: aspetti etici”, dove, in estrema sintesi, si sottolinea come “L’IA è uno strumento potente, ma accessorio alla decisione umana” e che “un sistema di assistenza cognitiva automatizzata non è un ‘sistema decisionale autonomo’.

Pertanto, riteniamo che siano ancora molti gli aspetti che devono essere affrontati e sui quali attivare riflessioni mature che tengano di tutti gli elementi che l’IA mette in campo.

Annalisa Pennini
PhD in Scienze Infermieristiche – Sociologa

Giannantonio Barbieri
Avvocato esperto di Diritto Sanitario

Annalisa Pennini e Giannantonio Barbieri

06 Maggio 2025

© Riproduzione riservata

Internet of Things e salute
Internet of Things e salute

Gentile Direttore, per comprendere appieno il significato dell’Internet of Things (IoT) e il suo ruolo crescente in sanità, occorre collocarlo entro un percorso di trasformazione tecnologica, economica e sociale avviato...

Psichiatria e Giustizia: il paradosso del “custode di fatto” e il valore dell’Articolo 89
Psichiatria e Giustizia: il paradosso del “custode di fatto” e il valore dell’Articolo 89

Gentile Direttore,il sistema psichiatrico-giudiziario italiano vive oggi un paradosso sempre più evidente. La riforma che ha portato alla chiusura degli ospedali psichiatrici giudiziari (Legge 81/2014) nasceva con l’obiettivo di superare...

Il Ministro Schillaci, il catastrofismo dei critici e la visione d’insieme del Governo
Il Ministro Schillaci, il catastrofismo dei critici e la visione d’insieme del Governo

Gentile Direttore, ho letto con sincero stupore le dichiarazioni del Ministro Schillaci pubblicate ieri su Qs, Ministro che nel question time alla Camera ha parlato a proposito del Ssn di...

Fisioterapia territoriale, serve un nomenclatore moderno
Fisioterapia territoriale, serve un nomenclatore moderno

Gentile Direttore,il rafforzamento delle cure primarie e della sanità territoriale è oggi una delle sfide principali del SSN. In questo contesto la fisioterapia è una risorsa strategica ancora poco valorizzata,...