Bixonimania e dintorni: quando l’intelligenza artificiale confonde la scienza

Bixonimania e dintorni: quando l’intelligenza artificiale confonde la scienza

Bixonimania e dintorni: quando l’intelligenza artificiale confonde la scienza

Gentile direttore, quando una malattia inesistente riesce a insinuarsi nel discorso medico e persino nelle risposte di sistemi di intelligenza artificiale (IA) avanzati, non siamo di fronte a una semplice anomalia tecnologica ma a un segnale culturale profondo.

Gentile direttore,
quando una malattia inesistente riesce a insinuarsi nel discorso medico e persino nelle risposte di sistemi di intelligenza artificiale (IA) avanzati, come Microsoft Copilot, Google Gemini, Perplexity AI e ChatGPT, non siamo di fronte a una semplice anomalia tecnologica, ma a un segnale culturale profondo che riguarda il modo stesso in cui oggi costruiamo, trasmettiamo e legittimizziamo la conoscenza, soprattutto in ambito sanitario, dove l’autorevolezza delle informazioni dovrebbe rappresentare un presidio di sicurezza e invece si trova sempre più spesso esposta alla fragilità dei circuiti digitali che la veicolano.

Il caso della cosiddetta “bixonimania” mette in luce proprio questa trasformazione radicale, perché nel giro di poche settimane dalla pubblicazione di contenuti fittizi costruiti con una forma apparentemente scientifica, diversi sistemi di intelligenza artificiale hanno iniziato a trattare tale condizione come reale, descrivendone sintomi, possibili meccanismi e persino ipotesi eziologiche legate all’esposizione alla luce blu, arrivando in alcuni casi a suggerire consulti specialistici.

Questo episodio ci costringe a riflettere sul rapporto sempre più stretto tra intelligenza artificiale e medicina, un rapporto che da un lato promette enormi benefici in termini di supporto alla diagnosi e accesso all’informazione, ma dall’altro espone a rischi inediti proprio perché i modelli linguistici non comprendono la realtà nel senso umano del termine, non verificano, non dubitano e non esercitano un vero giudizio critico, ma funzionano attraverso correlazioni probabilistiche e ricostruzioni di plausibilità che diventano tanto più persuasive quanto più il materiale di partenza appare formalmente coerente, anche quando è completamente falso

Il punto centrale tuttavia non riguarda solo la tecnologia ma riguarda noi, perché la vicenda della “bixonimania” dimostra che la vulnerabilità non è esclusivamente algoritmica ma profondamente umana, radicata in una medicina che si fonda su una complessa architettura di fiducia verso le istituzioni scientifiche, le riviste, i processi di peer review e la forma stessa dell’articolo accademico che, quando ben costruita, tende a essere percepita come garanzia di verità anche quando la sostanza non lo è.

In questo contesto l’intelligenza artificiale non fa che amplificare dinamiche già esistenti, perché un contenuto ingannevole inserito in un circuito digitale sufficientemente credibile può essere assorbito, rielaborato e restituito in forma ancora più lineare e rassicurante, e proprio questa chiarezza apparente diventa uno dei principali fattori di rischio, poiché ciò che è ben scritto tende a sembrare anche vero, soprattutto quando viene presentato senza esitazioni o sfumature.

Le implicazioni in ambito sanitario sono particolarmente delicate perché sempre più persone utilizzano strumenti digitali per interpretare sintomi, cercare diagnosi o orientarsi nelle scelte terapeutiche, in un fenomeno che già conosciamo come cybercondria ma che oggi assume una dimensione più complessa e insidiosa, nella quale non si tratta più solo di cercare informazioni ma di ricevere risposte personalizzate che possono confermare paure, rafforzare convinzioni errate e persino suggerire condizioni inesistenti. Il rischio conseguente non è soltanto la confusione informativa ma una trasformazione concreta dei comportamenti, perché un paziente convinto di essere affetto da una patologia inesistente può modificare il proprio stile di vita, richiedere accertamenti inutili e sviluppare una preoccupazione persistente che ricade inevitabilmente sulla relazione clinica, la quale si trova oggi a dover gestire non solo il dato medico ma anche il peso cognitivo ed emotivo generato dall’interazione con sistemi algoritmici percepiti come neutri e autorevoli

A questo si aggiunge la criticità della contaminazione del circuito scientifico, poiché il fatto che contenuti fittizi possano essere citati in articoli accademici dimostra quanto il sistema sia esposto a fragilità strutturali, accentuate dalla pressione a pubblicare e dalla crescente automazione dei processi di ricerca bibliografica, che insieme creano un ambiente in cui l’errore può non solo diffondersi ma anche consolidarsi.

Non si tratta di adottare una posizione tecnofobica, perché l’intelligenza artificiale è già parte della pratica clinica e può offrire un supporto reale nella diagnosi, nella sintesi delle informazioni e nell’accesso rapido alla letteratura. Il problema non è quindi l’utilizzo, ma l’assenza di criteri pratici condivisi per il suo impiego sicuro in ambito sanitario.

In primo luogo, ogni informazione clinica ottenuta tramite strumenti di intelligenza artificiale dovrebbe essere trattata come “ipotesi da verificare” e mai come contenuto validato. In pratica, ciò significa che nessuna indicazione rilevante per diagnosi o terapia dovrebbe essere utilizzata senza confronto con linee guida aggiornate, fonti primarie o sistemi di evidence-based medicine. È utile, in ambito operativo, adottare una regola semplice: nessuna decisione clinica deve basarsi esclusivamente su output di IA.

In secondo luogo, nella pratica quotidiana è necessario sviluppare l’abitudine alla verifica rapida delle affermazioni critiche. Quando un sistema IA suggerisce una patologia, un trattamento o un meccanismo eziologico, il clinico dovrebbe automaticamente procedere a una triangolazione minima con almeno una fonte affidabile (linee guida, database clinici o letteratura peer-reviewed). In assenza di conferma, l’informazione va considerata non utilizzabile.

Sul piano della comunicazione con il paziente, diventa sempre più frequente il caso di persone che arrivano in ambulatorio con informazioni generate da IA. In queste situazioni non è efficace la semplice smentita: è più utile adottare una strategia di chiarificazione strutturata, spiegando la differenza tra contenuto plausibile e contenuto clinicamente validato, e riportando la discussione su fonti affidabili condivise.

Per quanto riguarda l’organizzazione sanitaria, è utile introdurre protocolli interni sull’uso dell’IA, anche semplici: definire quali strumenti sono ammessi, per quali attività (ad esempio sintesi documentale o supporto amministrativo) e per quali invece è vietato l’uso diretto (diagnosi, prescrizioni, decisioni terapeutiche). Questo riduce la variabilità individuale e il rischio di utilizzi impropri non dichiarati.

Infine, è consigliabile che le strutture sanitarie prevedano momenti formativi periodici non teorici ma pratici, basati su casi reali di errori o “allucinazioni” dell’IA in ambito medico, così da allenare il personale a riconoscerli rapidamente nella pratica clinica. La competenza più rilevante non è saper usare l’IA, ma saper riconoscere quando non è affidabile.

A supporto di queste indicazioni operative, la Tabella 1 sintetizza le principali best practice e raccomandazioni applicabili nella pratica clinica e organizzativa per mitigare il rischio di disinformazione medica generata o amplificata dall’intelligenza artificiale.

Il caso della “bixonimania” ci ricorda in ultima analisi che la verità scientifica non è mai un punto di arrivo ma un processo continuo di verifica e correzione, e che proprio per questo deve essere costantemente difesa da tutte le forze che possono indebolirla, siano esse tecnologiche, cognitive o istituzionali. E in un’epoca in cui anche le malattie possono essere inventate, la vera sfida è non smettere mai di distinguere ciò che è plausibile da ciò che è vero, ciò che è scritto bene da ciò che è fondato, e soprattutto ciò che rassicura da ciò che salva davvero, perché è proprio in quella differenza sottile ma decisiva che si gioca il futuro della medicina e, in fondo, della fiducia stessa nella conoscenza.

Francesco Branda
Unità di Statistica Medica ed Epidemiologia Molecolare, Università Campus Bio-Medico di Roma

Francesco Branda

10 Aprile 2026

© Riproduzione riservata

La Malattia di Parkinson come nuova sfida sanitaria
La Malattia di Parkinson come nuova sfida sanitaria

Gentile Direttore,sono oltre 10 milioni i pazienti con malattia di Parkinson nel mondo, e si stima che in Italia vi siano circa 300.000 persone con questa patologia. Questo numero è...

TFS dei dipendenti pubblici: il Governo metta fine al sequestro di un bene personale
TFS dei dipendenti pubblici: il Governo metta fine al sequestro di un bene personale

Gentile Direttore,nel corso della conferenza stampa organizzata nei giorni scorsi dall’On. Alfondo Colucci alla Camera dei deputati, come COSMED abbiamo condiviso la richiesta di un intervento urgente del Governo per...

Asl Rieti, una “clinicizzazione” oltre gli obiettivi regionali
Asl Rieti, una “clinicizzazione” oltre gli obiettivi regionali

Gentile Direttore,la riorganizzazione della ASL di Rieti sta assumendo i contorni di un paradosso organizzativo che nulla ha a che fare con il miglioramento delle cure per i cittadini. Mentre...

Direttori di UOC, se si smonta, pezzo per pezzo, il governo aziendale del Ssn
Direttori di UOC, se si smonta, pezzo per pezzo, il governo aziendale del Ssn

Gentile Direttore,con l’articolo 20 della legge 5 agosto 2022, n. 118, il legislatore ha compiuto una scelta molto netta: sottrarre al Direttore Generale la possibilità di decidere davvero chi deve...