Gentile Direttore, il ricorso ormai routinario ai sistemi di Intelligenza Artificiale (IA) in medicina non rappresenta solo una significativa innovazione tecnologica ma una sfida antropologica che ridefinisce il fondamento dell’atto medico: la relazione di cura. Se da un lato i sistemi computazionali consentono sempre più una medicina di precisione, personalizzata e predittiva dall’altro sollevano interrogativi etici urgenti che inducono a un aggiornamento delle norme professionali. Su queste premesse sono state strutturate alcune proposte di aggiornamento per il Codice di Deontologia Medica.
Quando l’algoritmo incontra la “cura”, per evitare che la medicina si trasformi in un’algida computazione di dati ovvero nel tecnocentrismo o in un paternalismo algoritmico, è necessario che l’integrazione tecnologica segua una impostazione umanocentrica (human centered). In cui si integra la componente umana nel ciclo di vita del sistema di IA: dalla raccolta dati al supervised learning, dal reinforcement learning alla fase di testing e deployment. Vale a dire che non si rappresenta solo una supervisione ma una vera cooperazione cognitiva tra persona e algoritmo.
Ecco l’importanza di un orientamento deontologico che ribadisca il criterio della cooperazione dove i sistemi di IA devono essere un supporto al medico e non un sostituto del suo giudizio clinico e del suo operare nell’alleanza di cura. Con i seguenti obiettivi: promuovere il bilanciamento tra dimensione umana e dimensione artificiale, evitare reciproche esclusioni, favorire atteggiamenti di fiducia e cautela.
In una visione human centered, diversi i principi a cui fare riferimento per una nuova disciplina. E tra questi, possiamo richiamare principalmente l’autonomia (autonomy); l’equità (fairness); l’esplicabilità (explicability).E poi quello della fiducia (trust). Il tutto nel rispetto della dignità intrinseca di ogni persona.
Richiamandoli in ordine di elencazione, ma ponendoli tutti sullo stesso piano assiologico, il primo pilastro è il principio di autonomia (autonomy). Il paziente deve essere informato sulle procedure adottate e sul ruolo effettivo che l’IA ha avuto nel processo decisionale. Evitando, così, il rischio della c.d. delega algoritmica: una progressiva erosione della capacità di scelta del malato e dell’autonomia professionale del sanitario.
Il secondo principio cardine è l’equità (fairness). Sebbene l’IA abbia, tra le molteplici finalità, quella di ridurre l’errore umano, tuttavia, è una tecnologia che ha i suoi rischi in termini di neutralità. Poiché i sistemi vengono addestrati su dati storici, possono essere portatori di pregiudizi che portano a discriminazioni basate su etnia, genere o stato socioeconomico. La deontologia medica del futuro impone una supervisione etica costante per evitare che l’algoritmo perpetui discriminazioni sistemiche, garantendo che ogni paziente riceva un trattamento basato sul bisogno reale e non su distorsioni computazionali o allucinazioni.
Il terzo pilastro emerge dalla necessità dell’esplicabilità (explicability). Non basta che un’IA sia efficace. Deve essere comprensibile. Questo principio abbraccia l’aspetto epistemologico del funzionamento del sistema (accountability) e quello etico della responsabilità (responsibility).
E, certo non ultimo, quello della fiducia (trust). Vale a dire prima verificare i risultati e il procedimento usato e poi fidarsi. Quello che in termini tecnici si traduce nell’auspicabile upskilling (verify and trust) rispetto al deskilling che si configura nel piano scivoloso del “fidarsi comunque e andare avanti” (trust and go). Perché piano scivoloso? Se il deskilling significa una progressiva perdita di abilità da parte del medico, queste stesse abilità possono progressivamente andare incontro a un mancato sviluppo (never-skilling) o essere anche distorte (mis-skilling).
Su questi presupposti che coinvolgono l’etica, la medicina legale e il diritto, si sono sviluppate alcune proposte da parte dell’Ordine dei Medici Chirurghi e Odontoiatri di Napoli e incentrate particolarmente sul rapporto tra “Intelligenza Artificiale e Relazione di Cura”.
Il testo è stato redatto dal Gruppo di Studio “IA e relazione di cura” (Lucio Romano, Claudio Buccelli, Giuliana Di Fiore) della Commissione Consulta Deontologica e Bioetica (Coordinatore: Mario Delfino) e approvato dal Consiglio Direttivo dell’OMCeO di Napoli (Presidente: Bruno Zuccarelli).
In sintesi, i temi trattati hanno preso in considerazione: l’IA negli atti medici, nella disponibilità dei pazienti, dei medici, e degli altri operatori sanitari; potenzialità, rischi, implicazioni medicolegali, deontologiche ed etiche; capacità di prevedere eventi sanitari individuali e collettivi con conseguente capacità di pianificazione delle risorse.
Ecco l’articolato del contributo proposto per poter abitare e governare le innovazioni che ineriscono i fondamentali della relazione di cura. Nell’interesse prioritario del paziente che ripone la sua fiducia nella coscienza del medico.
Sistemi di intelligenza artificiale e relazione di cura
Articolo 1 – Principi generali
Il medico, nell’avvalersi dei sistemi di IA, riconosce il valore e l’utilità di tali strumenti come supporto alla pratica clinica, alla ricerca e alla gestione dei processi sanitari. L’uso dell’IA deve avvenire in un contesto di cooperazione con il giudizio professionale, fermo restando il principio che ogni decisione clinica sia orientata al bene del paziente e alla centralità della persona. È fatto obbligo di mantenere la responsabilità etica e professionale, assicurando che la tecnologia integri e non sostituisca la relazione di cura.
Il medico, nell’avvalersi dei sistemi di IA, rispetta i principi di equità, esplicabilità e trasparenza. Garantisce che tali strumenti non generino discriminazioni né diseguaglianze, promuovendo un impiego trasparente e inclusivo. Assicura che il ricorso ai sistemi di IA sia comprensibile da parte del paziente, adeguatamente alle sue competenze.
Articolo 2 – Centralità della persona nella relazione di cura
Il medico, anche nell’utilizzo di sistemi di IA, pone al centro della propria azione la dignità, l’autonomia e il bene del paziente. L’IA costituisce strumento di supporto e non può in alcun caso sostituire il giudizio clinico né la relazione fiduciaria che fonda l’atto medico.
Il medico, anche quando si avvale di sistemi di IA, pone la massima attenzione affinché la relazione di cura rimanga come fondamento dell’agire medico. Mantiene sempre un rapporto diretto, empatico e rispettoso con il paziente, garantendo ascolto, comprensione e disponibilità senza delegare alla tecnologia la dimensione umana dell’alleanza medico-paziente.
Articolo 3 – Trasparenza, spiegabilità e informazione
Il medico, qualora si avvalga di sistemi di IA, garantisce la massima trasparenza possibile sui processi e sui risultati. È tenuto a informare il paziente in modo comprensibile e rispettoso della sua autonomia, non dimenticando mai che l’opacità algoritmica non può alterare la correttezza nella condotta clinica. Egli alimenta la speranza e non l’illusione.
Articolo 4 – Responsabilità e autonomia professionale
Il medico mantiene in ogni circostanza la responsabilità delle decisioni cliniche adottate, anche quando queste siano supportate da sistemi di IA. Nessuna delega o attenuazione della responsabilità professionale può derivare dall’uso di strumenti tecnologici che confliggano con la competenza e il discernimento propri dell’atto medico.
Articolo 5 – Proporzionalità, prudenza e sicurezza
Il medico impiega i sistemi di IA in modo proporzionato, prudente e rispettoso della sicurezza del paziente. Valuta rischi, benefici e conseguenze, evitando ogni forma di utilizzo indiscriminato che possa compromettere il bene del paziente e una efficace qualità della cura.
Articolo 6 – Codecisione responsabile medico-paziente
Il medico, quando si avvale di sistemi di IA che possano presentare prevalenza decisionale, garantisce sempre la co-decisione responsabile con il paziente. Rispetta sempre l’autonomia e la capacità decisionale della persona, formulando in modo chiaro e comprensibile i suggerimenti generati dal sistema. Ogni decisione clinica deve risultare dall’integrazione equilibrata tra il giudizio professionale del medico, le indicazioni tecnologiche e le scelte libere e consapevoli del paziente.
Articolo 7 – Medico, IA e paziente: consenso informato all’atto di cura
Il proposito di impiego dell’IA va sempre comunicato al paziente.
L’assunzione del libero e consapevole consenso informato, quale atto non burocratico ma di genuina tutela del diritto alla salute, alla dignità e all’autodeterminazione della persona, sintesi e fondamento dell’alleanza di cura, non va demandata all’IA, cui può essere affidata la sola comprensibile ed esaustiva comunicazione di quanto previsto all’art. 33 del CdM, ma rimane atto di specifica ed esclusiva competenza del medico, non delegabile, nel quale egli verifica la correttezza di forma e contenuti della stessa.
Articolo 8 – Divieto di paternalismo algoritmico e medicina difensiva
Il medico non utilizza sistemi di IA in forme di paternalismo algoritmico o di medicina difensiva. L’uso dell’IA non può essere finalizzato a sostituire l’autonomia decisionale del paziente né a tutelare il medico da responsabilità professionali. Ogni impiego è guidato dal principio dell’alleanza di cura, dal rispetto della dignità e della libertà della persona, dalla centralità della dimensione relazionale medico-paziente.
Articolo 9 – Tutela della privacy e dei dati nei sistemi di intelligenza artificiale
Il medico, nell’utilizzo di sistemi di IA, garantisce la riservatezza, la sicurezza e la protezione dei dati personali e sanitari del paziente. Rispetta sempre il consenso informato, vigilando affinché i dati non siano trattati o inseriti nei sistemi di IA senza adeguate garanzie di anonimizzazione e proporzionalità e comunque con il consapevole assenso. Non usa i dati personali se ciò può comportare violazione della privacy, discriminazioni o indebite esposizioni della persona.
Il medico, quando intende utilizzare o condividere dati clinici e personali nell’ambito di sistemi di IA a fini di ricerca scientifica, sottopone tali attività proposte alla valutazione preventiva dei Comitati Etici competenti territoriali. Il parere del Comitato Etico non costituisce riferimento vincolante ma il medico rimane vincolato a responsabilità personali in proposito.
Articolo 10 – Disclaimer e garanzie etiche
Il medico, prima di avvalersi di sistemi di IA, verifica che le aziende produttrici forniscano adeguati disclaimer circa l’assenza di dati, criteri e processi addestrativi che possano essere discriminatori o suscettibili di generare diseguaglianze. Utilizza esclusivamente tecnologie che dichiarino conformità a principi di equità, inclusione e non discriminazione, a tutela della dignità e dell’uguaglianza dei pazienti.
Articolo 11 – Uso dei social robot in ambito assistenziale e riabilitativo
Il medico, nell’impiego di social robot a supporto di processi assistenziali e/o riabilitativi, garantisce che tali strumenti mantengano una funzione meramente ausiliaria e non sostitutiva. Vigila affinché il loro utilizzo non comprometta la dignità, l’autonomia e il benessere psico-relazionale del paziente, evitando ogni forma di dipendenza tecnologica o di riduzione della persona a oggetto di interazione artificiale.
Articolo 12 – Intelligenza artificiale predittiva
Il medico, nell’uso di sistemi di IA a carattere predittivo, garantisce che ogni previsione sia valutata con senso critico e responsabilità professionale. Informa preventivamente il paziente sui limiti, l’incertezza e i possibili rischi della predittività, evitando interpretazioni deterministiche. Tali strumenti vanno impiegati nel rispetto della libertà decisionale del paziente, senza mai sostituire il discernimento clinico né condizionare indebitamente le scelte di cura.
Articolo 13 – Intelligenza artificiale e medicina potenziativa
Il medico, nel ricorso a sistemi di IA finalizzati a forme di medicina potenziativa, valuta con prudenza rischi e benefici, distinguendo chiaramente tra interventi terapeutici/riabilitativi e interventi di potenziamento. Non pone in atto pratiche che possano generare discriminazioni, diseguaglianze o rappresentare indebite pressioni sociali. L’impiego di tali strumenti può essere considerato eticamente legittimo solo se orientato al miglioramento delle fisiologiche capacità fisiche e cognitive, della qualità di vita e del benessere globale del paziente, senza mai ridurre la persona a mero oggetto di ottimizzazione tecnologica.
Lucio Romano
Centro Interuniversitario di Ricerca Bioetica
Componente Commissione Consulta Deontologica e Bioetica – OMCeO Napoli