Quanto l’IA rischia di produrre in sanità uno “stupidario algoritmico”

Quanto l’IA rischia di produrre in sanità uno “stupidario algoritmico”

Quanto l’IA rischia di produrre in sanità uno “stupidario algoritmico”

Output formalmente autorevoli ma epistemicamente fragili che possono orientare le decisioni cliniche per delega implicita. Servono governance e vigilanza critica per preservare la natura prudenziale della medicina e la responsabilità interpretativa del medico.

Nel contesto sanitario l’intelligenza artificiale non produce semplicemente strumenti informatici, ma performance di analisi automatica che entrano direttamente nel processo cognitivo della decisione clinica. L’output algoritmico non si limita infatti a fornire informazioni: esso formula inferenze probabilistiche, suggerisce interpretazioni diagnostiche e contribuisce a orientare il giudizio medico. In tal modo l’IA assume progressivamente una funzione epistemica, partecipando alla produzione del sapere clinico.

È proprio in questo spazio che può emergere ciò che qui viene definito «stupidario algoritmico». Con tale espressione non si intende un mero catalogo di errori tecnici o di imprecisioni informative, bensì una specifica forma di demerito sistemico: la produzione di enunciati plausibili, formalmente coerenti e linguisticamente autorevoli, ma epistemicamente fragili o decontestualizzati. Il rischio non risiede quindi nell’errore manifesto, tradizionalmente individuabile e correggibile nella pratica medica, ma nella plausibilità automatizzata che tende a stabilizzarsi come criterio implicito di normalità decisionale.

A differenza degli strumenti diagnostici tradizionali, il cui funzionamento è generalmente riconducibile a parametri tecnici verificabili, i sistemi di IA operano attraverso processi statistici complessi e spesso opachi. L’autorevolezza dell’output non deriva dalla trasparenza del ragionamento che lo genera, ma dalla coerenza formale e dalla capacità persuasiva della formulazione linguistica. In tal modo la performance di analisi automatica può acquisire una forma di autorità epistemica impersonale, capace di orientare le scelte cliniche anche in assenza di una piena comprensione dei presupposti inferenziali sottostanti.

In questo quadro lo stupidario algoritmico designa il rischio che l’autorevolezza linguistica dell’output algoritmico sostituisca, senza esplicita deliberazione, il giudizio prudenziale del medico. La decisione clinica tende così a configurarsi come esito di una delega cognitiva implicita, nella quale il professionista sanitario non confronta criticamente l’algoritmo ma ne verifica piuttosto la coerenza con il proprio ragionamento.

Ne deriva una trasformazione più profonda della pratica medica. L’errore non è più soltanto attribuibile alla fallibilità individuale, tradizionalmente discussa e correggibile nel confronto scientifico, ma può emergere da una sequenza di inferenze statistiche la cui plausibilità rende difficile individuarne la fragilità epistemica. Lo stupidario algoritmico assume così una dimensione sistemica: non semplice errore tecnico, ma effetto strutturale di un paradigma di analisi automatica che tende a produrre interpretazioni probabilistiche dotate di elevata autorevolezza formale.

La questione diventa quindi non soltanto tecnologica o normativa, ma propriamente epistemologica. L’intelligenza artificiale, inserita nei processi clinici, contribuisce a ridefinire le condizioni di produzione del sapere medico e i criteri di validazione delle decisioni diagnostiche. Per questo motivo la governance dell’IA in sanità non può limitarsi alla conformità tecnica dei sistemi, ma deve includere una vigilanza critica sulle modalità attraverso cui le performance di analisi automatica partecipano alla costruzione del giudizio clinico.

In tale prospettiva, evitare che lo stupidario algoritmico diventi infrastruttura decisionale significa preservare la natura prudenziale della medicina: una pratica che integra strumenti tecnologici avanzati, ma che continua a fondarsi sulla responsabilità interpretativa del medico e sulla consapevolezza dei limiti intrinseci di ogni processo conoscitivo.

Ettore Jorio

Ettore Jorio

09 Marzo 2026

© Riproduzione riservata

Ecco come l’Intelligenza artificiale rivoluziona il farmaco, tra sviluppo record e medicina su misura
Ecco come l’Intelligenza artificiale rivoluziona il farmaco, tra sviluppo record e medicina su misura

L’intelligenza artificiale entra nei laboratori, setaccia miliardi di dati, disegna molecole che nessun chimico aveva ancora immaginato. E promette di accorciare di anni la strada che porta un farmaco dal...

Oltre la crisi del sistema sanità, una professione smarrita
Oltre la crisi del sistema sanità, una professione smarrita

Negli ultimi venti anni il Sistema Sanitario Nazionale ha subito un declino strutturale, lento e costante che ha generato un progressivo indebolimento nella capacità di rispondere adeguatamente alle necessità dei...

Tasso di fertilità nell’UE in picchiata. Nel 2024 a 1,34 nati vivi per donna. I dati Eurostat
Tasso di fertilità nell’UE in picchiata. Nel 2024 a 1,34 nati vivi per donna. I dati Eurostat

Nel 2024, nell’UE sono nati 3,55 milioni di bambini, con un calo del 3,3% rispetto ai 3,67 milioni del 2023. Il tasso di fertilità totale per il 2024 è stato di 1,34 nati vivi per...

Riforma professioni sanitarie. Le proposte dell’opposizione per una svolta partecipata e innovativa
Riforma professioni sanitarie. Le proposte dell’opposizione per una svolta partecipata e innovativa

Nel mio precedente articolo evidenziai quanto il testo del ddl di delega al governo sulle professioni sanitarie non rispondesse appieno alle attese suscitate dal documento approvato al termine dell’indagine della...