Life science excellence show. AI in sanità: il rischio non è l’algoritmo che sbaglia, è il sistema che non lo governa

Life science excellence show. AI in sanità: il rischio non è l’algoritmo che sbaglia, è il sistema che non lo governa

Life science excellence show. AI in sanità: il rischio non è l’algoritmo che sbaglia, è il sistema che non lo governa

Algoritmi predittivi, percorsi del paziente, dataset clinici: il secondo confronto del Festival dell’Innovazione dei Life Science Excellence Awards racconta la sfida di trasformare la vita reale in evidenza affidabile.

È in salute, l’intelligenza artificiale? La domanda – volutamente provocatoria – ha aperto il terzo talk del Festival dell’Innovazione dei Life Science Excellence Awards con un obiettivo chiaro: spostare l’AI fuori dal recinto degli slogan e portarla dove conta davvero, lungo tutta la catena del valore, dalla ricerca alla produzione, fino alla diagnosi e al paziente. Perché l’adozione accelerata crea valore, sì, ma può anche generare rischi sistemici se non è governata. Nel confronto sono intervenuti Luca Magrì, Head of Strategy Excellence & Innovation, Divisione Pharma, Bayer Italia, Daniele Recchi, Direttore Generale, Piam Farmaceutici, Alex Dell’Era, Public Affairs and Communication, Canon Medical e Deborah Patitucci, Marketing Manager IMI & EE, GE HealthCare.

Il confine sottile tra “valore” e “rumore”

La prima parte della discussione si è concentrata su una distinzione che sembra banale solo finché non la si deve applicare: quando l’AI crea valore misurabile e quando resta hype. Per Luca Magrì, il criterio non è l’effetto “wow”, ma la capacità di spostare davvero il sistema: migliorare outcome, ridurre costi, tagliare burocrazia e rischi. Il resto è rumore. “Se l’intelligenza artificiale riesce a generare outcome migliori per i pazienti, ridurre i costi, la burocrazia e i rischi allora è valore. Altrimenti è rumore”.

Per spiegare perché oggi la linea tra valore e hype “si assottiglia”, Magrì parte dal punto in cui l’AI sta incidendo di più: la ricerca e sviluppo. Se lo sviluppo di un farmaco richiede anni, l’ambizione è ridurre tempi e passaggi anche del 40–50%, perché ogni mese guadagnato non è un vantaggio solo industriale: è innovazione che arriva prima ai pazienti.

Poi il discorso si sposta su un livello più concreto: il tempo. Magrì racconta due scene “di vita reale”. La prima riguarda l’aderenza terapeutica – quel 50% di pazienti cronici che non segue in modo regolare le cure – e l’uso di modelli che si adattano agli stili di vita per aiutare il paziente a non perdere il filo della terapia. La seconda è quasi una fotografia di corsia: un paziente cardiovascolare, settimane di ricovero, decine di referti; e poi il medico che, a fine percorso, impiega almeno due ore per scrivere la lettera di dimissione. Tempo sottratto alla relazione e alla cura. L’idea, qui, è usare l’AI per togliere burocrazia e restituire minuti e ore all’interazione medico–paziente: proprio lì, sostiene, si gioca una parte decisiva della fiducia.

Dalla fabbrica alla supply chain: l’AI che rende competitivo il quotidiano

Nel confronto Daniele Recchi entra nella prospettiva di un’industria nazionale e prova a rispondere con un criterio pragmatico: dove l’AI è già oggi un vantaggio competitivo misurabile?

La sua risposta è una triade. Produzione, prima di tutto: ottimizzare processi, ridurre scarti e costi, aumentare qualità, con un supporto anche alle logiche di compliance e controllo. Poi supply chain e forecasting: usare l’AI per simulare scenari in un contesto instabile, evitando sia overstock (costo) sia carenze (rischio per il paziente). Infine, l’uso dei modelli nell’analisi di dati clinici – da studi e dal mondo reale – per estrarre insight utili. Con un avverimento: alcune applicazioni più “pesanti” (ad esempio lo sviluppo di nuove molecole) per aziende di media taglia restano ancora poco accessibili finché non scendono costi e barriere.

Sul tema della responsabilità e della trasparenza Recchi è netto: “Quando applichiamo l’AI ai processi dobbiamo garantire che l’algoritmo sia trasparente, rigoroso e comunicabile anche nei suoi bias, in modo che chi utilizza l’output sappia quali sono i limiti del sistema”. E c’è un rischio ancora più umano, quindi più concreto: che l’AI porti a una forma di deresponsabilizzazione, a lasciare che “decida lei” invece di supportare chi deve decidere.

Imaging: quando accelerare vuol dire curare meglio

Nel dialogo emerge anche un tema che, in sanità, non è solo efficienza: velocizzare può voler dire ridurre rischio, migliorare esperienza del paziente, rendere possibili esami prima impraticabili. Deborah Patitucci cita un esempio quantificato: applicazioni e algoritmi in imaging capaci di ridurre la durata di un esame dell’86%. Il punto non è soltanto “fare più esami”. È cosa significa per i pazienti: prendendo l’esempio della risonanza magnetica potrebbe significare meno tempo sdraiati, meno difficoltà per chi non tollera lunghi periodi di immobilità, meno criticità nei percorsi pediatrici che richiedono anestesia.

E c’è un’ulteriore conseguenza clinica, soprattutto in ambito cardiovascolare: acquisizioni molto rapide possono aprire la porta alla diagnostica anche per pazienti aritmici o con extrasistoli che, con protocolli lunghi, rischiano di essere esclusi. Poi Patitucci scende ancora di scala e racconta un oggetto quasi “da pronto soccorso”: un ecografo portatile grande come un rasoio, utilizzabile con una mano. Qui l’AI non “fa la diagnosi”: guida la mano, aiuta nel corretto posizionamento, aumenta la probabilità di ottenere immagini davvero diagnostiche anche quando chi esegue l’esame non è uno specialista esperto.

E per l’efficienza operativa di sistema introduce l’idea di una “torre di controllo”: un Command Center che integra in tempo reale dati da diagnostiche, pronto soccorso e reparti per ottimizzare flussi, tempi e persino l’assegnazione dei posti letto, superando rigidità strutturali tipiche dell’organizzazione per reparti.

Uscire dalla polarizzazione: entusiasmo cieco o paura della black box

Nel confronto Alex Dell’Era sceglie un ingresso “di metodo”: se si vuole parlare di valore reale, bisogna smettere di oscillare tra due estremi – entusiasmo incondizionato (“è tutto fantastico”) e paura della black box. L’AI non è più promessa futuristica: è già nel dispositivo. La domanda, semmai, è dove crea valore misurabile. La sua mappa del valore in diagnostica ha tre punti. Il primo è la consistenza: ridurre variabilità tecnica (rumore, artefatti, differenze operative) significa immagini più stabili, protocolli standardizzati, riproducibilità. Il secondo è la sicurezza del percorso: quando l’AI aiuta a prioritizzare casi critici e rende più fluido il workflow, incide sui tempi di risposta.

È qui che Dell’Era richiama un dato che non lascia scampo alla retorica: in un ictus si perdono circa 2 milioni di neuroni al minuto, per questo si dice time is brain. Ridurre anche pochi minuti significa preservare funzione neurologica e cambiare il destino clinico. Il terzo è il più invisibile, ma forse il più importante: il tempo restituito al clinico. Dell’Era chiarisce un equivoco ricorrente: l’AI può supportare attività ripetitive e gestione del carico, ma non sostituisce la responsabilità, che resta umana.

La governance come infrastruttura di fiducia

Se la prima parte del confronto racconta l’impatto, la seconda mette a fuoco le condizioni per scalare senza trasformare l’accelerazione in rischio sistemico. Magrì rifiuta l’idea della governance come freno burocratico e la descrive come un’infrastruttura di fiducia tra partner. I suoi “non negoziabili” ruotano attorno a tre punti: accountability chiara e decisione finale in capo al medico; rigore scientifico applicato anche ai modelli (perché la velocità può accelerare anche bias e drift); e data governance pensata dall’inizio, non aggiunta dopo. In sintesi: servono guard rail calibrati sul rischio, non una griglia uguale per tutto. Recchi aggancia il tema da un punto di vista aziendale: nelle Life Science la responsabilità è già alta, l’AI la rende più “sofisticata” e adattiva. Per questo, dice, è essenziale evitare opacità e garantire trasparenza anche nel funzionamento degli algoritmi. Patitucci traduce la governance in leve operative: validazione clinica (dati verificati e diversificati), riproducibilità nel tempo ed explainability, cioè la possibilità di capire come un algoritmo è arrivato a un risultato.

Sulla cybersecurity insiste su una logica by design: sistemi pensati dall’inizio per minimizzare vulnerabilità, con controlli granulari degli accessi, audit end-to-end e aggiornamenti sicuri. Ma aggiunge un elemento spesso sottovalutato: la formazione di chi usa la tecnologia, anche dell’utente “base”. Infine, l’interoperabilità: soluzioni bellissime ma isolate valgono poco se non si integrano in percorsi e dati che aiutino davvero a decidere sul singolo paziente.

Dell’Era chiude riportando la governance dal singolo algoritmo al contesto più ampio in cui la tecnologia opera: “Il rischio non è tanto che l’algoritmo sbagli. Il problema è che il sistema non sia progettato per governarlo”. Per questo chiede modelli che accompagnino l’AI lungo tutto il ciclo di vita, con monitoraggio continuo, evidenze su casi reali, audit e aggiornamenti controllati. E rilancia una distinzione cruciale: non confondere conformità normativa e valore clinico. “Tra dieci anni non ci chiederemo se l’AI funziona, ma se siamo stati capaci di governarla quando era il momento giusto”. Da qui l’idea di un modello collaborativo, capace di mettere insieme industria, strutture sanitarie, ingegneria clinica, società scientifiche e istituzioni.

Cultura, metodo, competenze (per difendere la fiducia)

Quando arriva la domanda finale – una priorità per i prossimi cinque anni – il confronto converge su un punto: più che tecnologia o norme, serve cultura. Cultura del dato, della valutazione continua, della trasparenza e della responsabilità. Perché la traiettoria è già segnata: dispositivi e soluzioni AI-enabled stanno entrando a ritmo crescente. La differenza tra infrastruttura e frattura la farà la capacità di adottarle con metodo, competenze e criteri condivisi.

Il risultato, più che una risposta secca alla domanda “l’AI è in salute?”, è un messaggio di sistema: l’AI accelera davvero quando restituisce tempo, riduce variabilità, migliora sicurezza e rende più efficienti processi e percorsi. Ma la sua tenuta, e la sua credibilità, dipendono da ciò che il confronto ha richiamato più volte con parole diverse: fiducia. Quella che si costruisce con responsabilità umana, governance tracciabile e competenze capaci di stare al passo della velocità tecnologica.

05 Marzo 2026

© Riproduzione riservata

Life science excellence show. Dati o opinioni? La sanità alla prova della vita reale
Life science excellence show. Dati o opinioni? La sanità alla prova della vita reale

Non è una disputa accademica, né una guerra di religione tra statistica e percezioni. Nel secondo talk del Festival dell’Innovazione dei Life Science Excellence Awards 2025 la domanda “dati o...

Life science excellence show. Cure che reggono nel tempo: chi paga l’innovazione (e con quali regole)
Life science excellence show. Cure che reggono nel tempo: chi paga l’innovazione (e con quali regole)

Il Festival dell’Innovazione dei Life Science Excellence Awards nasce per fare una cosa che, a parole, sembrerebbe facile: far incontrare l’innovazione con le regole che la rendono davvero accessibile. Nella...

Virus sinciziale, la campagna italiana con anticorpo monoclonale riduce drasticamente le ospedalizzazioni dei neonati
Virus sinciziale, la campagna italiana con anticorpo monoclonale riduce drasticamente le ospedalizzazioni dei neonati

A livello globale, le malattie respiratorie sono ancora una sfida aperta. Il Covid-19, e le influenze più in generale, hanno contribuito a rendere le patologie respiratorie (tra cui BPCO, asma,...

Oms: “Obesità, HIV e HPV al centro delle strategie per prevenire malattie e salvare vite”
Oms: “Obesità, HIV e HPV al centro delle strategie per prevenire malattie e salvare vite”

Obesità, HIV e cancro cervicale. Sono queste le tre sfide per la salute pubblica sulle quali Tedros Adhanom Ghebreyesus, Direttore generale dell’OMS ha puntato i riflettori nel corso della  conferenza...