Gentile Direttore, le scrivo all’indomani dell’annuncio di OpenAI relativo al lancio di “ChatGPT Salute”, una novità che ritengo imponga una riflessione urgente e priva di ipocrisie sul futuro della sanità digitale e del nostro Servizio Sanitario Nazionale.
Leggendo la presentazione del progetto, che promette di integrare cartelle cliniche, dati dei dispositivi indossabili e app di benessere in un unico spazio conversazionale, emergono prepotenti luci e ombre che non possiamo ignorare.
Partiamo dalle ombre, che si addensano inevitabilmente sul tema dei dati. OpenAI rassicura parlando di “solidi controlli di privacy”, crittografia dedicata e spazi separati dove le conversazioni non vengono usate per l’addestramento dei modelli. Tuttavia, la fiducia cieca è un lusso che non possiamo permetterci. Nello stesso annuncio si legge testualmente: “Secondo la nostra analisi anonima delle conversazioni, oltre 230 milioni di persone in tutto il mondo pongono domande su salute e benessere su ChatGPT ogni settimana”.
Questa affermazione è la prova che un monitoraggio, seppur aggregato e anonimizzato, è già in atto. La domanda sorge spontanea: al di là delle rassicurazioni di facciata, a chi vengono realmente trasmessi questi dati? Chi gestisce l’infrastruttura profonda e con quali finalità ultime, oltre al miglioramento del servizio? La linea di confine tra “analisi anonima” e profilazione sanitaria su scala globale è sottile e scivolosa.
Un secondo punto critico riguarda la genesi clinica del software. L’azienda dichiara di aver collaborato per due anni con “oltre 260 medici attivi in 60 Paesi” per validare il modello tramite il framework HealthBench. Sarebbe di estremo interesse sapere se, in questa task force globale, figurino medici del nostro SSN o rappresentanti della sanità pubblica italiana. Il rischio, altrimenti, è di importare un modello di “ragionamento clinico” ed etico di stampo anglosassone o privatistico, non allineato con i valori e le procedure della nostra sanità pubblica.
Tuttavia, mentiremmo a noi stessi se non vedessimo le luci. E queste luci illuminano impietosamente le mancanze del nostro sistema.
Ciò che ChatGPT Salute offre – l’interpretazione immediata di un esame del sangue, la correlazione tra dati biometrici (Apple Salute, MyFitnessPal) e storia clinica, la preparazione a una visita specialistica – è esattamente ciò che il Fascicolo Sanitario Elettronico 2.0 avrebbe dovuto essere nella sua massima espressione.
Il progetto di OpenAI realizza quell’ecosistema integrato che noi rincorriamo da anni: un assistente capace di dare un senso alla frammentazione di PDF, note mediche e app che oggi disorienta il paziente.
Mentre noi dibattiamo su standard di interoperabilità, le multinazionali offrono al cittadino uno strumento potente, intuitivo e (apparentemente) empatico. È inutile nascondersi dietro un dito: i cittadini interrogano già l’Intelligenza Artificiale per la propria salute. Lo fanno in centinaia di milioni, cercando risposte che il sistema formale talvolta fatica a dare con la stessa tempestività e chiarezza.
La sensazione, amara, è che il nostro SSN disponga di una mole di dati inestimabile e di un capitale umano straordinario, ma resti tecnologicamente fermo al palo. Siamo come una Ferrari parcheggiata in garage: abbiamo il motore (i dati e le competenze), ma a guidare in autostrada, definendo le regole del viaggio e la destinazione, sono le Big Tech americane.
Se non colmiamo presto il divario tra l’architettura burocratica del FSE e le potenzialità reali dell’IA, il rischio non è solo sulla privacy, ma sulla sovranità stessa della relazione di cura.
Marco Pingitore
Dirigente Psicologo CSM Mesoraca – ASP Crotone