L’introduzione dell’intelligenza artificiale nel settore farmaceutico non è più un esercizio di sperimentazione tecnologica: è una componente operativa che attraversa ricerca, sviluppo clinico, produzione, farmacovigilanza e processi regolatori. L’integrazione, tuttavia, chiama la necessità di una governance forte e di pratiche condivise. Il report “AI Across the Medicines Lifecycle – Insights from Preliminary Case Studies and Considerations for Policy”, della Federazione europea delle Associazioni e industrie Farmaceutiche (EFPIA), presenta un’analisi basata su casi reali raccolti tramite interviste a leader del settore farmaceutico, con l’obiettivo di comprendere come le aziende stiano governando l’uso dell’AI e quali raccomandazioni emergano per definire un quadro regolatorio coerente.
Obiettivi e metodologia dello studio
Lo studio nasce per colmare un vuoto: sebbene enti regolatori come EMA e FDA abbiano iniziato a definire principi generali sull’uso dell’AI, mancano ancora linee guida dettagliate e operative su come governare gli algoritmi nelle diverse fasi del ciclo di vita del medicinale. Per rispondere a questa esigenza, gli autori hanno condotto interviste strutturate con esperti di grandi aziende farmaceutiche, utilizzando una griglia basata sui principali framework internazionali per la gestione del rischio dell’AI (OECD, NIST, ISO/IEC, ENISA).
Il lavoro si articola attorno a quattro casi studio, ognuno relativo a una diversa fase del ciclo di vita del farmaco:
- Ricerca clinica: uso dell’AI per analizzare immagini istopatologiche e generare biomarcatori esploratori.
- Sviluppo clinico: generazione di dati sintetici per simulare bracci di controllo o arricchire dataset limitati.
- R&D Quality: strumenti di AI per la rilevazione precoce di anomalie nei dati clinici, come la sotto-segnalazione di eventi avversi.
- Farmacovigilanza: utilizzo di modelli deterministici per filtrare la letteratura scientifica alla ricerca di possibili eventi avversi.
Ogni caso è analizzato secondo le cinque fasi del ciclo di vita dell’AI: progettazione, raccolta dati, sviluppo e validazione, deployment, monitoraggio.
Le evidenze raccolte: come l’AI viene governata oggi
Le organizzazioni mostrano una forte attenzione iniziale agli aspetti etici, regolatori e di risk tiering. Molte hanno istituito comitati multidisciplinari che valutano l’intento d’uso, la distanza dell’AI dalla decisione sul paziente e la necessità di controlli proporzionati. L’idea di proximity to patient emerge come criterio chiave per determinare il livello di rischio e quindi l’intensità della governance.
Le aziende hanno sviluppato processi strutturati per gestire provenienza, qualità, armonizzazione (es. SDTM) e protezione dei dati. Sono frequenti l’uso di metriche di fairness, controlli di rappresentatività e tecniche che migliorano la privacy, come la generazione di dati sintetici. L’aderenza al GDPR è sistematica.
I modelli vengono sviluppati con metodologie riproducibili e documentate, prevedendo split rigorosi e validazioni indipendenti. Quando possibile, vengono preferite architetture più interpretabili (es. sequential trees). In casi in cui l’output è intrinsecamente interpretabile per l’esperto (es. overlay istologici), si privilegia la trasparenza documentale. Molte soluzioni AI richiedono investimenti significativi in formazione e management, al momento la mancanza di AI literacy può ostacolare l’adozione. I sistemi vengono monitorati per performance drift, anomalie o evoluzioni nel contesto regolatorio. Anche nei progetti retrospettivi, si documentano osservazioni qualitative, audit trail e criteri di intervento. Alcune aziende mantengono inventari centralizzati di tutti gli AI system in uso.
I quattro casi studio: cosa raccontano
Nel primo caso studio, la tecnologia permette di svelare segnali biologici nascosti nelle immagini istologiche. L’AI è usata solo a fini retrospettivi, a basso rischio, ma con forte controllo su qualità dei dati, interpretabilità degli output e revisione specialistica. La governance valorizza la documentazione (model cards, data sheets) e i controlli etici.
Nel secondo caso studio, la creazione di coorti artificiali aiuta a colmare gap nei dati clinici e a migliorare la fattibilità degli studi. Tuttavia richiede standard elevati su qualità, fairness, GDPR compliance e trasparenza. È evidente il bisogno di dialogo regolatorio per definire l’inquadramento di queste tecnologie all’interno di RWE e trial design.
Nel terzo caso studio, l’AI consente un monitoraggio quasi real-time della qualità, ad esempio individuando siti che sotto riportano eventi avversi. Il caso studio mostra un’applicazione matura, supportata da principi di AI ethics, GMLP e trasparenza (inclusa la pubblicazione open-source del pacchetto statistico).
Nel quarto caso studio, l’utilizzo di classificatori per filtrare la letteratura riduce drasticamente il carico manuale. La governance deve gestire aspetti legali, validazione, audit e formazione del personale. Anche qui, emerge la necessità di guidance più specifica da parte dell’EMA.
Conclusioni principali dello studio
Lo studio evidenzia alcune conclusioni chiave. In primis, una qualità dei dati e una standardizzazione che passano attraverso formati standard e mapping è cruciale per creare modelli di sviluppo validi e utilizzabili ovunque. Ancora, i principi di trasparenza e comprensibilità dei modelli sono sempre prioritari rispetto alla prevedibilità delle performance, specie quando i modelli vengono utilizzati in sottoscrizioni regolatorie o decisioni scientifiche interne. Un aspetto interessante, comune a tutti gli studi, è come la formazione e un cambio di management siano stati essenziali per costruire una fiducia interna negli strumenti di intelligenza artificiale, particolarmente tra quelle parti interessate e quei gruppi di sviluppo che non erano indottrinati all’advance machine learning. Infine il monitoraggio proattivo e un continuo risk assessment, anche nelle fasi iniziali e esploratorie degli studi, hanno contribuito a diffondere una cultura di accountability e attenzione nella gestione di potenziali rischi.
Gli intervistati chiedono a EMA e Commissione europea:
- chiarimenti su esenzioni (es. R&D exemption dell’AI Act),
- guidance aggiornabile (FAQ),
- percorsi di early engagement,
- armonizzazione internazionale (EMA-FDA-ICH).
Per ottenere benefici dall’AI, serve un’interazione costante tra industria e regolatori: condivisione di casi d’uso, visibilità sui precedenti regolatori, confronto sui modelli di rischio e sulle aspettative di convalida.
Report EFPIA