Quotidiano on line
di informazione sanitaria
Martedì 05 MARZO 2024
Studi e Analisi
segui quotidianosanita.it

Il vocabolario antropomorfico delle intelligenze artificiali

di Lucio Romano

Il linguaggio suggestivo utilizzato per descrivere le Intelligenze Artificiali (IA) e i suoi effetti rileva  realismo tecnologico. Un vocabolario antropomorfico che non distingue confini tra ciò che è umano e ciò che descrivere sistemi artificiali. Sono attribuiti termini come intelligenza, comprensione, apprendimento, allucinazione, coscienza… Vale a dire che si antropomorfizzano le macchine, creando un ponte semantico, una similitudine tra l’umano e l’artificiale

06 FEB -

Il linguaggio suggestivo utilizzato per descrivere le Intelligenze Artificiali (IA) e i suoi effetti rileva realismo tecnologico. Un vocabolario antropomorfico che non distingue confini tra ciò che è umano e ciò che descrivere sistemi artificiali. Sono attribuiti termini come intelligenza, comprensione, apprendimento, allucinazione, coscienza… Vale a dire che si antropomorfizzano le macchine, creando un ponte semantico, una similitudine tra l’umano e l’artificiale.

Un linguaggio metaforico, secondo Remo Bodei, quando parliamo di intelligenza, coscienza, emozioni o lavoro delle macchine. Attribuendo loro qualità di cui sono prive. Il tipo di λόγος, di coscienza o di autocoscienza di cui sono dotate è costituito da algoritmi, sequenze di comandi. L’idea di copiare il funzionamento del cervello e della mente umana attraverso l’IA al difuori del contesto delle relazioni, dell’ambiente e della cultura in cui ciascuno è immerso, ha condotto a delle semplificazioni e a degli errori di valutazione fuorvianti.

Ne conseguono sostanziali questioni filosofiche ed etico-sociali. Mentre si estendono sempre più gli orizzonti delle IA, è fondamentale mantenere una consapevolezza critica. Essenziale riconoscere i limiti delle metafore linguistiche quando si applicano a entità artificiali, poiché si possono creare ingannevoli analogie con le capacità umane. Attribuendo a macchine le capacità proprie di soggetti-agenti in grado di assumere decisioni in modo consapevole.

Prendiamo ad esempio alcuni termini, tra i tanti di un vocabolario suggestivo, come “comprensione artificiale”, “apprendimento” e “allucinazione”.

La “comprensione artificiale” (significando la capacità di un sistema di interpretare e riconoscere informazioni in modo simile a un essere umano) andrebbe oltre la mera elaborazione di dati. Ovvero la tendenza all'antropomorfizzazione porta a considerare la comprensione artificiale come un equivalente della comprensione umana. Interrogativo: la macchina comprende veramente o è una simulazione sofisticata basata su algoritmi e modelli di apprendimento automatico?

La distinzione tra comprensione umana (intrecciata tra libero arbitrio e coscienza) e comprensione artificiale (correlazione meccanica, inconscia, automatica tra input e output ancorata ai dati e agli algoritmi) segna la differenza. Mentre gli algoritmi e i modelli di machine learning possono elaborare un’enormità di dati in tempi rapidissimi, manca loro consapevolezza e intenzionalità.

La comprensione artificiale apre a domande ineludibili sulla natura della conoscenza e della coscienza. Si sollevano pressanti interrogativi sulla possibilità di creare macchine con simulazioni sempre più raffinate e sofisticate di processi cognitivi umani. Così per quanto riguarda le implicazioni etiche quando consideriamo le responsabilità.

Un elemento chiave della comprensione artificiale è un “apprendimento” continuo e automatico. Ecco altro esempio di linguaggio antropomorfico conferito alle macchine. Il termine apprendimento suggerirebbe un processo simile a quello umano, ma occorre distinguere tra apprendimento artificiale ed esperienza personale propria dell’apprendimento umano. Le macchine apprendono ottimizzando parametri e adattandosi ai dati forniti. Ma questo processo manca dell'esperienza personale data da emozioni, consapevolezza, contesti sociali. Nell’apprendimento artificiale non si rileva la dimensione della soggettività umana “con” significato morale, dato dalla ponderazione consapevole delle circostanze e dalla capacità di discernere gli effetti.

“Allucinazione” è altro termine dal richiamo chiaramente antropomorfico mutuato dall’ambito biomedico. Un fenomeno attribuito a stati patologici di competenza psichiatrica. Ebbene, il termine allucinazione è ormai trasmigrato nel lessico comune delle IA e usato correntemente quando sistemi di IA generative basate su Large Language Models (LLM) – come ChatGPT, Bing, Bard, ecc. – collegano, interpretano erroneamente i dati e producono informazioni errate. Più dettagliatamente, imprecisioni, errori o vere e proprie invenzioni, per quanto verosimiglianti. Appunto, il verosimile senza distinguere il vero dal falso. Secondo analisi probabilistica, sulla base di un’enorme mole di dati, i LLM sono addestrati a prevedere la parola successiva. Ma senza poter comprendere la differenza tra ciò che è corretto e ciò che è sbagliato. E poi il c.d. bias controfattuale, ovvero la tendenza a considerare vera una premessa fattuale errata.

Recente la pubblicazione di uno studio dello Stanford REGLab e dell’Institute for Human-Centered AI in cui si dimostra una incidenza dal 69% all’88% di allucinazioni nell’applicazione di LLM in campo giuridico.

Le cause delle allucinazioni nell‘IA possono essere varie e complesse. Una delle ragioni principali è la sensibilità degli LLM ai dati di addestramento o la presenza di pattern che possono fuorviare l'algoritmo. Dati (input) ambigui o non rappresentativi possono generare risposte (output) erronee (allucinate) che riflettono interpretazioni distorte della realtà con significative implicazioni etiche e di sicurezza. Sono errori a volte così grossolani da essere immediatamente evidenti. Tuttavia, l’incessante progresso nell’addestramento di LLM (es.: apprendimento rinforzato con feedback umano) comporterà una costante riduzione delle allucinazioni più grossolane per formare modelli generativi più affidabili. Tuttavia, indipendentemente dal fatto che i problemi delle allucinazioni siano adeguatamente affrontati, gli utenti dovrebbero essere consapevoli dello spettro di capacità e limiti delle IA generative. L’uso cauto e il controllo attento dei fatti sono più importanti che mai.

Il problema è epistemologico. La nuova domanda, sottolinea Luca De Biase in Nòva, è: qual è il valore della conoscenza comunicata dalle IA? Se la macchina per la comunicazione verosimile si maschera da conoscenza documentata della realtà, c’è il rischio che possa generare non un’ondata di entusiasmo, ma uno tsunami di illusioni. E poi, di chi la responsabilità degli effetti conseguenti alle allucinazioni delle IA generative?

Nella consapevolezza dei limiti in grado di generare rapidamente quantità diverse e rilevanti di disinformazione convincente, si accredita l’urgente necessità di un governo ovvero di una regolamentazione. Accanto ai progressi, i rischi emergenti stanno diventando sempre più evidenti. In una molteplicità di settori (non ultimo quello biomedico, segnalato da Jama Internal Medicine) trasparenza, sorveglianza e regolamentazione possono fungere da preziosi riferimenti per la gestione dei rischi e la salvaguardia della salute pubblica.

Certo, possiamo dire che la ricorrenza nell’uso di un linguaggio antropomorfizzato non è altro che il prevedibile sviluppo dell’originaria attribuzione sostantiva di “intelligenza” ad “artificiale”, in cui vanno a sfumarsi i confini tra naturale e artificiale. Fino ad essere indistinguibili. Da qui la necessità, ove sia ancora possibile realizzarlo, di riprendere un linguaggio di senso. Che ci dovrebbe far dire, ad esempio, che la macchina, per quanto definita intelligente, guarda (con gli occhi della telecamera) ma non vede; ascolta (con le orecchie dei microfoni) ma non sente. È automatica nell’apprendimento (machine learning, deep learning, reti neurali artificiali, …) ma non è autonoma. Perché il vedere e il sentire, a differenza del guardare e dell’ascoltare, coinvolgono un’assunzione di consapevolezza o di coscienza che trasformano chi guarda e ascolta in colui che comprende. I dati (input) e gli algoritmi, invece, elaborano delle risposte (output) senza una spiegazione di senso. Generano contenuti simili a quelli umani, come nel caso di IA generative, sulla base di un mero metodo probabilistico.

È il congedo dagli scenari umanistici? E’ l’interrogativo che pone Umberto Galimberti. “E’ la logica lineare tipica delle macchine che, prescindendo dall’individuo come soggetto e da tutti i suoi aspetti di vita individuale, lo sostituisce con un profilo dei suoi comportamenti, dei suoi interessi e dei suoi atti. E tutto ciò senza una vera consapevolezza, anzi con la persuasione che la decisione sia ancora nelle loro mani, perché in fondo sono loro ad aver deciso di farsi guidare da altri. Avvertire la distanza che esiste tra il mondo-della-vita e il mondo digitale non significa delegittimare l’intelligenza artificiale, ma non smarrire la singolarità e la specificità che caratterizza ogni vita umana e in generale tutto ciò che di essa non è traducibile in un algoritmo.”

L’attribuzione ai sistemi di IA di proprietà umane attraverso l’uso di un vocabolario antropomorfico porta inevitabilmente a una visione riduzionista o materialista, come rileva il filosofo Evandro Agazzi in “Dimostrare l’esistenza dell’uomo”. L’uso dell’aggettivo intelligente alla macchina provoca la domanda filosofica: se la macchina pensa come l’uomo, l’uomo pensa come la macchina? Sembrano derivarne due conseguenze possibili: o si ammette che anche la (nuova) macchina possa compiere operazioni in quanto dotata di un potere immateriale, come il pensiero; oppure si deve ammettere che, se una macchina materiale sa fare cose intelligenti, allora anche nel caso dell’uomo non è necessario ammettere un principio immateriale per fare tali cose. In entrambi i casi si avrebbe una riduzione dell’uomo a un livello strettamente naturalistico (se ne perde la specificità rispetto al mondo naturale). Nel secondo caso si avrebbe anche una connotazione esplicitamente materialista.

In sintesi, potremmo dire che l’assegnazione di categorie lessicali propriamente umane alle macchine significa una delega suggestiva, o inquietante se si vuole. Non solo semantica ma essenzialmente concettuale che accompagnerà inevitabilmente l’evoluzione dei sistemi di IA. Insomma, un nuovo lessico antropomorfico con una nuova narrazione?

Lucio Romano

Medico Chirurgo e Docente di Bioetica
Componente Commissione Scientifica Centro Interuniversitario di Ricerca Bioetica (CIRB)



06 febbraio 2024
© Riproduzione riservata


Altri articoli in Studi e Analisi

ISCRIVITI ALLA NOSTRA NEWS LETTER
Ogni giorno sulla tua mail tutte le notizie di Quotidiano Sanità.

gli speciali
Quotidianosanità.it
Quotidiano online
d'informazione sanitaria.
QS Edizioni srl
P.I. 12298601001

Sede legale:
Via Giacomo Peroni, 400
00131 - Roma

Sede operativa:
Via della Stelletta, 23
00186 - Roma
Direttore responsabile
Luciano Fassari

Direttore editoriale
Francesco Maria Avitto

Tel. (+39) 06.89.27.28.41

info@qsedizioni.it

redazione@qsedizioni.it

Coordinamento Pubblicità
commerciale@qsedizioni.it
    Joint Venture
  • SICS srl
  • Edizioni
    Health Communication
    srl
Copyright 2013 © QS Edizioni srl. Tutti i diritti sono riservati
- P.I. 12298601001
- iscrizione al ROC n. 23387
- iscrizione Tribunale di Roma n. 115/3013 del 22/05/2013

Riproduzione riservata.
Policy privacy