L’umanocentrismo della legge sull’intelligenza artificiale

L’umanocentrismo della legge sull’intelligenza artificiale

L’umanocentrismo della legge sull’intelligenza artificiale

Gentile Direttore,
il 10 ottobre entra in vigore la legge sull’intelligenza artificiale (L. n.132/2025). Un primo passaggio significativo nella governance di una rivoluzionaria innovazione tecnologica. Il provvedimento non si limita a disciplinare ambiti tecnici ma intende proporre una visione complessiva del rapporto tra sistemi di intelligenza artificiale (IA) e cittadino. Usando categorie antropologiche, o se si vuole bioetiche, possiamo dire tra sistemi artificiali intelligenti e persone. Ancor meglio, tra “libertà e necessità, libertà e strumentalità, realtà e rappresentazione.”

L’intento del legislatore è la promozione di un uso umanocentrico e responsabile dell’IA. Una prospettiva che si iscrive nella tradizione personalista riaffermando il primato della persona, la sua intrinseca dignità con il riconoscimento dei diritti fondamentali. In coerenza con gli articoli 2 e 3 della Costituzione italiana e con l’art. 1 della Carta dei diritti fondamentali dell’Unione Europea. Come rileva Paolo Benanti, “la sequenza di bit della macchina, tradotti in simboli alfabetici intellegibili, ha il potere di innescare dei processi semantici e di senso della persona. Su questo dobbiamo ancora riflettere per evitare indebite influenze e pericolose confusioni. Parlare di senso è allora parlare dell’unicità umana, cioè di quel senso del vivere umano che racchiudiamo nella semantica del termine dignità umana.”

Al netto di alcune criticità che sono state rilevate (reale portata pratica, ricorso a una significativa serie di deleghe, clausola di invarianza finanziaria), ricorrendo a un’analisi bioetica della legge si rileva che i sistemi di IA interpellano l’etica della responsabilità, sia soggettiva che comunitaria, capace di definire e ordinare gli interventi, l’utilizzo e gli effetti sulla vita umana. La legge italiana sembra raccogliere questa sfida con un intervento normativo che ha l’intento di fissare principi cardine in materia di ricerca, sperimentazione, sviluppo, adozione e applicazione di sistemi e di modelli di IA.

Il rischio non è solo quello di un uso improprio delle tecnologie ma di un riduzionismo antropologico: quando l’algoritmo si sostituisce al discernimento, la persona diventa oggetto di una ragione calcolante a cui ci si affida con una limitazione della propria soggettività morale. Prevale la visione meccanicistica e strumentale in cui la dimensione computazionale della probabilità statistica e della inconsapevolezza predominano sulla dimensione cognitiva e deliberativa proprie dell’umano.

Ebbene, a fronte di queste prospettive la legge riafferma il primato della decisione umana su quella automatizzata.

Tra i vari ambiti di applicazione presi in considerazione, un rilievo particolare è in capo alle applicazioni dell’IA in medicina. Un settore, questo, in cui maggiormente si evidenziano costanti e rilevanti progressi con sempre più estese applicazioni nonché correlate problematiche etiche e giuridiche. E nel rapporto, appunto, tra IA e sanità sono opportune alcune riflessioni pur tralasciando altre e non secondarie tematiche prese in considerazione dalla legge.

Il testo legislativo dedica alla sanità diversi articoli (artt. 7, 8, 9 e 10) riconoscendo esplicitamente il valore dell’IA come strumento di supporto clinico, utile nella diagnosi, nella prevenzione, nella ricerca, nella gestione dei dati. Stabilendo, altresì, che la decisione ultima in ogni atto medico spetta al professionista sanitario. “I sistemi di IA in ambito sanitario costituiscono un supporto nei processi di prevenzione, diagnosi, cura e scelta terapeutica, lasciando impregiudicata la decisione, che è sempre rimessa agli esercenti la professione medica” (art. 7 comma 5). Questa precisazione ha un significato che va oltre la deontologia: custodisce la natura relazionale e personale dell’atto medico. In cui la cura non è mera prestazione tecnica ma incontro tra vulnerabilità e responsabilità, tra fiducia e coscienza. Laddove l’IA elabora dati, il medico interpreta la vita; laddove l’algoritmo calcola probabilità, l’operatore sanitario in alleanza con il paziente assume un impegno tecnico ed etico. È in questo spazio di libertà e discernimento che si gioca la relazione di cura, la dignità della medicina.

La legge prevede l’obbligo di informare il paziente circa l’impiego di strumenti di IA nei processi diagnostici o terapeutici (art. 7 comma 3). Tale disposizione, pur lodevole, lascia comunque aperto un interrogativo: quale livello di consapevolezza può raggiungere il paziente per poter dare un consenso che sia realmente informato e condiviso?

È questo un tema molto dibattuto da tempo, a prescindere dalle applicazioni di tecnologie con IA. La trasparenza tecnica, infatti, non significa coincidenza con la comprensione umana. Con una premessa fondamentale. L’IA, per sua natura, tende a standardizzare riducendo la complessità della vita a parametri misurabili. In molti casi la complessità dei sistemi di deep learning rende impossibile spiegare le modalità con cui un algoritmo giunge a una decisione. Se neppure l’esperto può rendere conto del processo, come può il paziente esercitare il proprio diritto al consenso? Ovvero, come si distingue con certezza il confine tra il legittimo supporto fornito dall’IA e un’indebita sostituzione del giudizio del medico?

In particolare, l’opacità algoritmica (black box) mette in crisi l’idea stessa di esplicabilità. Richiamando il concetto di “colonizzazione del mondo della vita” di Jürgen Habermas e, e rideclinandolo nell’ambito dei sistemi artificiali intelligenti, la razionalità tecnico-strumentale invaderebbe la sfera relazionale al punto tale da sostituirla. Su questo versante, non certo secondario, la valutazione del carattere meramente ausiliario di un sistema di IA potrebbe rimanere vaga e indefinita.

La legge si propone di evitare tale scivolamento richiamando come riferimenti fondamentali “i principi di trasparenza, proporzionalità, sicurezza, protezione dei dati personali, riservatezza, accuratezza, non discriminazione, parità dei sessi e sostenibilità (art. 3 comma 1).

Un altro elemento di rilievo è il trattamento dei dati sanitari personali “per finalità di anonimizzazione, pseudonimizzazione o sintetizzazione” (art. 8 comma 3). Un equilibrio non facile perché favorire l’innovazione senza compromettere la riservatezza e la libertà personale potrebbe essere vanificato in quanto sofisticati sistemi di correlazione possono rendere nuovamente identificabili i soggetti.

La vera tutela, dunque, non può essere riposta nella sola tecnica ma l’obiettivo può essere individuato nella cultura della responsabilità condivisa tra i diversi soggetti coinvolti. Richiamando l’AI Act europeo: il fornitore/sviluppatore (provider), l’importatore, il distributore, l’utilizzatore professionale/ente pubblico o privato (deployer), il consumatore/cittadino (user finale), l’autorità vigilante e di regolazione, i Comitati Etici.

La legge italiana sull’IA rappresenta un segnale positivo, riconoscendo che l’innovazione tecnologica deve avere come fondamento l’umanocentrismo. Un obiettivo che si potrebbe ritenere quasi pleonastico. Eppure, non è così. Considerate le previsioni che delineano nuove declinazioni antropologiche, come raffigurati da Ray Kurzweil, caratterizzati da una “singolarità sempre più vicina” in cui ci fonderemo con l’IA, aumentando noi stessi con una potenza di calcolo milioni di volte superiore a quella che ci ha dato la nostra biologia. Una visione distopica, secondo alcuni che, invece, non tiene conto degli stringenti interrogativi che l’IA ci pone. Di fronte a tali snodi, l’impreparazione e la sprovvedutezza o una supina accettazione sono segni di un pensiero che ha smesso di interrogarsi.

In definitiva, la legge sull’IA segna un passo avanti nella bioetica della responsabilità sulla base dell’umanocentrismo. Nella consapevolezza che la tecnica non è mai neutra, che ogni innovazione porta in sé interrogativi sull’umano.
Che il discernimento non si confonda con l’efficienza e il pensiero non si raffiguri con l’output.

Lucio Romano
Componente Commissione Scientifica – Centro Interuniversitario di Ricerca Bioetica (CIRB) già Senatore della Repubblica

Lucio Romano

09 Ottobre 2025

© Riproduzione riservata

Delega professioni. Il personale delle strutture sanitarie accreditate è il grande assente
Delega professioni. Il personale delle strutture sanitarie accreditate è il grande assente

Gentile Direttore, con il disegno di legge delega in materia di professioni sanitarie e responsabilità professionale sembra iniziare quella revisione del Ssn da tempo attesa. In particolare, a proposito delle...

Linea guida sull’arresto cardiaco, un traguardo di coesione multidisciplinare e rigore scientifico
Linea guida sull’arresto cardiaco, un traguardo di coesione multidisciplinare e rigore scientifico

Gentile Direttore,lo scorso 26 gennaio è stata ufficialmente pubblicata sul portale dell’Istituto Superiore di Sanità l’area tematica riguardante il Basic Life Support (BLS) il primo tassello della più ampia Linea...

La questione del vincolo di esclusività: il futuro del Ssn ad un bivio
La questione del vincolo di esclusività: il futuro del Ssn ad un bivio

Gentile Direttore, il vincolo di esclusività nelle professioni sanitarie costituisce oggi uno degli argomenti più sensibili e potrebbe rivelarsi strategico nel dibattito sul futuro del Servizio Sanitario Nazionale. Non si...

Il medico come cura dell’anima e il ritorno al paternalismo
Il medico come cura dell’anima e il ritorno al paternalismo

Gentile Direttore, non facciamoci illusioni. Sarebbe come non vedere la mucca nel corridoio. Il medico sarà sostituito direttamente o indirettamente in tempi brevi nella cura del corpo e della mente...