Gentile direttore,
oggi il dibattito globale sull’intelligenza artificiale in sanità è dominato da una parola che evoca sia speranza che timore: superintelligenza. Con questo termine si indica un’AI in grado di superare l’essere umano in ogni attività cognitiva: ragionamento complesso, analisi di dati, previsione di scenari, persino decisioni etiche. Non è più fantascienza: è l’obiettivo a cui aspirano laboratori di ricerca, grandi aziende tecnologiche e investitori globali. Si immagina un’AI capace di diagnosticare meglio dei medici, ottimizzare interi sistemi sanitari, anticipare epidemie e modellare trattamenti personalizzati con precisione quasi assoluta.
Eppure, mentre il mondo discute di superintelligenza e di scenari futuribili, milioni di persone restano escluse dall’uso più elementare dell’AI sanitaria. Non si tratta di modelli predittivi ipertecnologici, ma di strumenti di base: chatbot per il triage, sistemi di supporto decisionale clinico, traduzioni automatiche per spiegare una terapia. La barriera non è tecnologica, ma linguistica, culturale e strutturale. In gran parte dell’Africa subsahariana si parlano oltre 2.000 lingue, eppure la maggior parte dei sistemi AI è addestrata solo su inglese, francese, cinese o grandi lingue europee. Il risultato? Pazienti incapaci di capire una prescrizione, madri che non riescono a spiegare i sintomi dei figli, errori clinici che diventano tragedie quotidiane.
Un esempio concreto: una madre arriva con il figlio in una clinica di un campo per sfollati. La sua lingua è minoritaria, i medici parlano solo il dialetto dominante. Senza interpreti e senza strumenti digitali in grado di comprendere quella lingua, la comunicazione è impossibile. Anche la terapia più semplice può diventare pericolosa. Ecco il paradosso: mentre si discute di quando arriverà la superintelligenza, nelle cliniche rurali si contano errori dovuti a incomprensioni elementari. L’AI che dovrebbe ridurre le disuguaglianze rischia invece di amplificarle, perché ignora le lingue locali, i codici culturali e i modi in cui le comunità comunicano dolore, malattia e salute.
Questa distanza si riflette anche simbolicamente sui palchi globali. All’ultimo India AI Impact Summit 2026, i leader delle più grandi aziende di AI, da Sam Altman CEO di OpenAI (la società dietro ChatGPT), a Dario Amodei, CEO di Anthropic (fondata da ex membri di OpenAI e responsabile del modello Claude), condividono lo stesso palco senza stringersi la mano. Un’istantanea apparentemente innocua, ma che fotografa perfettamente il divario tra chi costruisce sistemi superintelligenti e chi subisce l’esclusione digitale: competizione e branding prevalgono sui bisogni concreti dei pazienti.
In sanità pubblica, la vera intelligenza non è quella che “sa tutto”, ma quella che capisce. Capisce lingue minoritarie, culture, metafore, proverbi e tabù che descrivono la malattia. Senza questa comprensione, algoritmi e chatbot diventano strumenti freddi, incapaci di salvare vite. Errori, scarsa aderenza alle terapie, sfiducia nei servizi sanitari: tutto ciò non è accidentale, ma il frutto diretto di sistemi costruiti senza la prospettiva di chi li deve usare davvero.
L’Africa offre un esempio lampante: pochi medici per decine di milioni di pazienti, altissima prevalenza di HIV, malaria e tubercolosi, infrastrutture limitate. Qui, un’AI capace di comprendere tutte le lingue locali e adattarsi ai contesti culturali non è un lusso, ma una questione di vita o di morte. Eppure, senza dataset locali, accesso ai data center, connettività stabile e formazione, anche la tecnologia più avanzata rimane un miraggio.
La questione non è solo linguistica: è strutturale e infrastrutturale. L’Africa ospita meno dell’1% della capacità mondiale di data center e meno del 5% dei ricercatori AI africani ha accesso ai sistemi di calcolo necessari per addestrare modelli complessi o strumenti di elaborazione del linguaggio naturale applicabili ai contesti locali. Senza infrastrutture stabili, elettricità affidabile e connettività diffusa, anche gli strumenti più avanzati rischiano di restare lettera morta. A questo si aggiunge il fenomeno del brain drain, che sottrae medici, ingegneri e data scientist alle comunità locali, privando i sistemi sanitari delle competenze necessarie per costruire strumenti su misura. È un circolo vizioso: meno capacità locali, meno dati contestualizzati, meno AI utile, più esclusione.
Non basta tradurre parola per parola. La salute non è fatta solo di sintomi e protocolli: è fatta di storie, metafore, rituali e tabù. Un algoritmo che ignora questi elementi rischia di interpretare male i segni clinici, generare falsi allarmi o dare indicazioni inappropriate. L’AI sanitaria, se vuole essere davvero efficace, deve essere culturalmente intelligente, non solo computazionalmente potente.
Ci sono segnali positivi: iniziative come African Next Voices e Lesan AI dimostrano che investire in dataset multilingue locali produce risultati concreti: modelli più precisi, comunicazione sanitaria più efficace, maggiore aderenza alle terapie. Ma sono ancora eccezioni. Senza un impegno globale che combini investimenti tecnologici, politiche di capacity building e governance inclusiva, la superintelligenza rischia di restare un concetto astratto, utile solo ai grandi centri di ricerca e agli investitori, mentre chi ha più bisogno resta invisibile.
Prima di preoccuparci di quando arriverà la superintelligenza, dobbiamo chiederci se l’AI sarà capace di ascoltare davvero tutte le voci. L’innovazione tecnologica ha senso solo se riduce le disuguaglianze. Se non lo fa, anche la più potente delle intelligenze artificiali rischia di consolidare nuove forme di esclusione.
In sanità, il silenzio non è mai neutrale. Non parlare la lingua del paziente significa ignorarlo, rischiare errori, minare fiducia e partecipazione. La vera sfida non è costruire macchine più intelligenti degli esseri umani, ma sistemi intelligenti per tutti gli esseri umani, capaci di navigare linguaggi, culture e contesti diversi. Solo così la promessa della superintelligenza diventa etica, pratica e realmente salvavita.
Francesco Branda
Unità di Statistica Medica ed Epidemiologia Molecolare, Università
Campus Bio-Medico di Roma