Gentile Direttore, la ricorrenza dell’11 febbraio, XXXIV edizione della Giornata Mondiale del Malato, ci richiama ancora una volta l’imprescindibile valore e orizzonte di senso del “prendersi cura”.
Che non è un modo di sentire che possa ridursi al sentimentalismo. Né, d’altra parte, è il paradigma utopico di una speranza generosa e per sé stessa irrealizzabile al confronto con la cruda realtà sociale condizionata da varie forme di utilitarismo, dal dialogo che si fa scontro, dal consenso che diventa mero esercizio di potere.
Possiamo dire che in quanto sociale il prendersi cura è tema che coinvolge tutti. Ed è per questo motivo che nel contesto del nostro tempo si pongono nuovi e stringenti interrogativi inerenti a nuove forme di declinazione della cura. Tra questi, certo non secondario, è in merito alle modalità di come si coniuga il prendersi cura con le innovazioni tecnologiche dei sistemi artificiali intelligenti (IA). Così le nuove questioni sulla tecnica, e tra queste, ad esempio: quale rapporto tra libertà e strumentalità, tra realtà e rappresentazione, fra corpo e mente?
Riprendendo questi interrogativi, la già vasta applicazione dell’IA non rappresenta solo una rivoluzione tecnologica ma un vero e proprio sfida antropologica. Se da un lato l’IA offre potenzialità computazionali senza precedenti, dall’altro interroga profondamente la natura della relazionalità, ovvero quel nucleo essenziale del prendersi cura (to care) che va ben oltre il curare (to cure). In particolare, il “to cure” è l’affidamento nella malattia da cui il realizzarsi di atti terapeutici sul corpo. Il “to care”, invece, comprende la terapia ma non si esaurisce in essa: è un affidare la fragilità con interventi che si realizzano con atti di cura della persona nella sua unitotalità corporea, psichica e spirituale.
Presupposti di queste considerazioni sono rappresentati dalle specificità date da malattia in senso biomedico (disease) che si riferisce alle disfunzioni biologiche o ai processi fisiopatologici identificati dalla scienza medica e da malattia come esperienza vissuta (illness) che descrive l’esperienza soggettiva dei sintomi e della sofferenza così come è vissuta dal paziente. E poi, certo non secondaria, la malattia in senso sociale (sickness) che riguarda i fattori che influenzano il modo in cui una condizione viene riconosciuta, affrontata e modellata dalle norme e dalle aspettative della società.
Ebbene, nel rapporto tra IA e cura, una prima ed essenziale distinzione risiede nella natura stessa del processo decisionale. L’IA opera attraverso una razionalità computazionale, analizzando enormi moli di dati per identificare pattern statistici. In bioetica, questo solleva una prima criticità: una lettura algoritmica può suggerire una diagnosi con estrema precisione ma non può spiegarla nel senso umano del termine né può abitare le responsabilità morali.
Per quanto, citando articolo pubblicato sull’American Journal of Bioethics, si affermi che “è ora che la bioetica smetta di parlare di persona”, la relazione di cura, rispetto all’IA, si fonda sull’alleanza tra persone nelle rispettive singolarità. Potremmo dire che rappresenta l’incontro tra libertà e fragilità. Mentre l’IA eccelle nella precisione, il prendersi cura necessita di prossimità. In questo contesto l’operatore sanitario non è un mero esecutore di output algoritmici ma un interprete del vissuto del paziente, capace di cogliere il non detto, le paure e la speranza che sfuggono alla quantificazione numerica. È un incontro tra fiducia e coscienza: la fiducia della persona sofferente con la coscienza dell’operatore sanitario.
Ecco la necessità di una cooperazione nell’orizzonte di un umanesimo digitale in cui “l’IA non trasforma l’essere umano in una macchina e non si interpreta le macchine come esseri umani. Si riconosce la peculiarità dell’essere umano e delle sue capacità, servendosi delle tecnologie digitali per ampliarle non per restringerle.”
Ma quali sono i principi bioetici di riferimento? Prima di tutto risulta necessario che l’integrazione dell’IA debba essere declinata in una visione umanocentrica (human in the loop) piuttosto che dal tecnocentrismo (tech in the loop). Per ricordare solo alcuni principi, seppur molto sinteticamente, richiamiamo l’autonomia (autonomy) in cui la persona sofferente deve essere informata non solo sulla terapia ma anche sul ruolo svolto dall’IA nel processo decisionale così da poter esprimere il proprio consenso. Infatti, il rischio è che la delega algoritmica eroda la capacità di scelta del malato e l’autonomia professionale del sanitario. E poi il principio di equità (fairness) in cui, sebbene l’IA riduca l’errore umano, potrebbe introdurre pregiudizi (bias algoritmico) che portano a discriminazioni basate su etnia, genere, età, stato socioeconomico nella cura dei pazienti. Infatti, un’IA non eticamente supervisionata potrebbe perpetuare discriminazioni sistemiche. Non ultimo, il principio di esplicabilità (explicability), che comprende l’aspetto epistemologico di come funziona il sistema di IA (accountability) nonché quello etico della responsabilità (responsability).
Il tutto nel rispetto della dignità intrinseca di ogni persona.
Certo è che il rischio maggiore della visione tecnocentrica si configura nella depersonalizzazione dell’ammalato. Se il malato viene ridotto a un set di parametri bio-digitali analizzati da algoritmi, si smarrisce l’unicità della persona in cui il corpo malato non rappresenta il danno di una funzione piuttosto il luogo di un vissuto personale esistenziale, spirituale.
Ciò significa che non dobbiamo però guardare all’IA e alla relazione di cura come elementi reciprocamente escludenti. La distinzione necessaria serve a mantenere una gerarchia di valori in cui la tecnologia è di supporto ma non deve svolgere un ruolo sostitutivo dell’umano. In questa prospettiva, l’IA può agire come prezioso consulente. Capace di suggerire percorsi di trattamenti personalizzati ma spetta sempre all’umano la responsabilità del discernimento etico.
Che il supporto tecnologico sia necessario è ampiamente confermato dalla letteratura scientifica. Come sottolinea Giuseppe Remuzzi, direttore dell’Istituto di Ricerche Farmacologiche Mario Negri, “studi pubblicati sul NEJM rilevano che in casi di diagnosi complesse, aperte al confronto tra medici di tutto il mondo, solo il 20% è arrivato alla diagnosi corretta mentre l’IA ci è riuscita nell’85,5% dei casi. Ogni anno nel mondo 2,6 milioni di persone muoiono a causa di diagnosi sbagliate, circa settemila al giorno. È impossibile per un medico, per quanto preparato, conoscere e trattare migliaia di malattie, a cui se ne aggiungono 250 nuove ogni anno. L’IA, invece, può analizzare insieme dati biologici, chimici e clinici in tempi compatibili con la pratica medica.”
Nella visione umanocentrica, come delineata nel Parere congiunto Comitato Nazionale per la Bioetica (CNB) e Comitato Nazionale per la Biosicurezza, le Biotecnologie e le Scienze della Vita (CNBBSV), i sistemi di IA sono automatici nell’apprendimento con un’assistenza cognitiva automatizzata ma non rappresentano sistemi decisionali autonomi; sono di supporto alle decisioni umane ma non devono rappresentare una sostituzione; devono avere il carattere della neutralità ma non devono neutralizzare l’umano; sono di completamento alle azioni umane ma non le sostituiscono.
In conclusione, la bioetica personalista fondata sulla dignità intrinseca e applicata all’IA in sanità ci invita a non cedere al fascino di un’efficienza algoritmica. La cura autentica rimane un atto di relazione, di empatia, di coscienza. L’algoritmo può calcolare le probabilità di guarigione ma solo l’incontro umano può dare senso alla malattia e dignità al dolore. La tecnologia può rappresentare l’architettura diagnostico-terapeutica ma è la relazione interumana che resta l’anima della “cura”.
Lucio Romano
Commissione Scientifica – Centro Interuniversitario di Ricerca Bioetica (CIRB)