L’Intelligenza artificiale è destinata a far emergere l’aspetto più propriamente umano della professione. Un’integrazione tra nuove tecnologie e competenze specifiche e pratiche insostituibili che saranno destinate a ridefinire il profilo dei medici legali del futuro. Di questi si è parlato all’ultimo convegno patrocinato dalla Società Italiana di Medicina Legale (Simla) a Milano e dedicato alla memoria del professore Antonio Farneti, il Direttore dell’Istituto di Medicina Legale di Milano.
“Come ogni tecnologia ‘general purpose’ – ha dichiarato il professore Vittoradolfo Tambone -, l’Intelligenza Artificiale tende a essere pervasiva: proprio perché è uno strumento di potenziamento, consente di svolgere molti compiti professionali più rapidamente, meglio e con maggiore efficienza. Per questo, la domanda corretta non è se l’AI verrà utilizzata, ma come verrà utilizzata. Facendo riferimento all’ultima simulazione pubblicata da Anthropic, la medicina legale si colloca in una posizione intermedia tra ambiti ad alta esposizione all’AI (come quelli informatico-cognitivi) e ambiti a bassa esposizione (come i “protective services”), configurandosi quindi come una professione ibrida”.
Da una parte pertanto le componenti analitico-documentali, come la redazione di referti, l’analisi delle cartelle cliniche e il confronto con linee guide, che risultano “fortemente automatizzabili”, spiega il docente, e poi, con gradazioni differenti, ci sono le attività di valutazione peritale – solo parzialmente supportabili dall’AI, poiché richiedono giudizio, contestualizzazione e assunzione di responsabilità – e quindi il nucleo più “umano” della professione, cioè tutte le dimensioni incarnate e situate, come i sopralluoghi, le autopsie, l’interazione con magistrati e forze dell’ordine e la gestione del contenzioso.
“Ne deriva che la medicina legale non sarà sostituita, ma trasformata: l’AI ridurrà il lavoro tecnico e ripetitivo – aggiunge il professore Tambone -, facendo emergere con maggiore evidenza il nucleo propriamente umano della professione, ossia la capacità decisionale e la responsabilità personale rispetto alle conseguenze giuridiche delle proprie valutazioni. In particolare, ed è un ambito che merita ulteriore approfondimento, ritengo che l’AI sarà molto pervasiva a livello metodologico, ma relativamente poco incisiva a livello criteriologico”.
La Società Italiana di Medicina Legale è in primo piano in questa fase di studio e di approfondimento, lavorando per coinvolgere l’intera comunità medico legale. In questa direzione s’inserisce un’indagine, attivata in collaborazione con l’Healthcare Bioethics Center della Fondazione Policlinico Universitario Campus Bio-Medico, per indagare sull’utilizzo dell’AI nella pratica medico-legale, il livello di consapevolezza e le competenze presenti nella comunità professionale e quindi bisogni, criticità e condizioni di accettabilità emersi nei vari ambiti. I rischi restano al centro dell’attenzione della comunità scientifica.
“L’Intelligenza Artificiale, al pari di altre nuove tecnologie, amplia enormemente le nostre possibilità di azione – prosegue il professore Tambone -, ma non determina l’intenzionalità dell’atto, che resta propria dell’essere umano. In altre parole, l’AI potrà aiutarci a fare molto bene il bene o molto bene il male, ma la scelta rimane nelle nostre mani. Questo vale anche quando programmiamo sistemi d’arma cosiddetti ‘autonomi’: in tali casi, la selezione del bersaglio può essere affidata alla macchina, ma il fatto stesso che essa operi in questo modo è frutto di una nostra decisione, configurando la fattispecie del ‘volontario in causa’”.
Sarà strategica in questo percorso la commissione, istituita all’interno della Società Italiana di Medicina Legale (SIMLA), specificamente dedicata alle nuove tecnologie. “Accanto a quanto già in corso – precisa il professore Tambone -, si intende anzitutto agire in modo propositivo affinché l’impiego di tali tecnologie sia effettivamente al servizio della verità e della giustizia. Questo, va sottolineato, non è uno slogan retorico, ma un preciso indirizzo progettuale, che implica lo sviluppo e l’adozione di tecnologie capaci di evitare le cosiddette ‘allucinazioni’, di ridurre i bias interpretativi derivanti dal preaddestramento (come nel caso di modelli con una mentalità iper-locale), di prevenire i loop di rafforzamento (si pensi, ad esempio, alle criticità emerse nel sistema Gotham di Palantir) e, al contempo, di integrarsi esplicitamente nel sistema giuridico di riferimento, tenendo conto delle differenze tra il modello anglosassone e quello europeo”.
Un altro elemento, emerso con chiarezza durante il Congresso di Milano, anche come vivo ricordo del Prof. Farneti, “riguarda l’importanza della relazione e, nonostante possa sembrare scontato, dell’amicizia e della condivisione – conclude Tambone -. Questi aspetti, che a prima vista potrebbero apparire romantici o poco pragmatici, si rivelano invece canali formativi di straordinaria efficacia”.