EMA e FDA tracciano i confini dell’AI nella ricerca farmaceutica: dieci principi per un uso responsabile e sicuro
Due delle principali autorità regolatorie mondiali – l’Agenzia europea per i medicinali (Ema) e la Food and drug administration (Fda) – hanno annunciato un passo storico verso un quadro regolatorio condiviso.
Le due agenzie hanno pubblicato un set di dieci principi guida per l’uso dell’Ai lungo l’intero ciclo di vita del medicinale, con l’obiettivo di promuovere innovazione, tutela del paziente e allineamento transatlantico delle regole.
La decisione nasce dalla crescente adozione delle tecnologie di intelligenza artificiale in ricerca e sviluppo, che promettono di accelerare tempi e costi del drug discovery, migliorare la generazione di evidenze e persino ridurre la necessità di sperimentazioni animali.
Ma, come evidenziato dalle due istituzioni, questi potenziali benefici si accompagnano a rischi legati a sicurezza, trasparenza, governance dei dati e responsabilità. La collaborazione tra Ema e Fda vuole quindi offrire un primo riferimento condiviso per guidare sviluppatori, regolatori e aziende nell’impiego dell’Ai in modo responsabile ed etico.
The 10 Guiding Principles
1. Human-centric by design
AI systems must align with ethical, patient-focused values and prioritize human well‑being.
2. Risk-based approach
Development and use should follow a risk‑based framework with proportional validation, mitigation, and oversight depending on the context of use and model risk.
3. Adherence to standards
AI must comply with relevant legal, ethical, technical, cybersecurity, scientific, and GxP (Good Practices) standards.
4. Clear context of use
The AI’s role, purpose, and scope must be precisely defined.
5. Multidisciplinary expertise
Experts in both AI and the drug development domain should be involved throughout the AI system’s life cycle.
6. Data governance and documentation
Data sources, processing decisions, and analytical steps must be traceable, verifiable, and GxP‑compliant. Privacy and protection for sensitive data are essential.
7. Model design and development
AI must be developed using best practices in model design, software engineering, and use of fit‑for‑purpose data. The system should support interpretability, transparency, reliability, and robustness.
8. Risk-based performance assessment
AI systems (including human–AI interaction components) require rigorous, context‑appropriate evaluation with validated metrics and performance testing.
9. Life cycle management
Quality management systems should ensure ongoing monitoring, periodic re‑evaluation, and issue handling (e.g., data drift).
10. Clear, essential information
Plain-language communication must be provided to users and patients describing the AI system’s context of use, performance, limitations, underlying data, updates, and interpretability.
I principi individuati dalle autorità definiscono un quadro di riferimento che bilancia innovazione e tutela del paziente. Tra i punti centrali emerge l’esigenza che gli strumenti basati su Ai siano “human-centric”, cioè progettati per supportare decisioni umane e non sostituirle”, e basati su un approccio legato al rischio, che consideri il contesto specifico in cui l’algoritmo sarà impiegato.
Il documento congiunto sottolinea inoltre l’importanza di chiarezza sul contesto d’uso, governance rigorosa dei dati, multidisciplinarietà nella progettazione dei modelli e documentazione accurata delle metodologie impiegate. La sorveglianza continua delle prestazioni e la gestione dell’intero ciclo di vita del sistema Ai sono considerate requisiti essenziali per garantire che il modello resti affidabile nel tempo.
Pur non costituendo una guida normativa vincolante, questi principi costituiranno la base per l’elaborazione di linee guida più dettagliate in Ue e Usa, e sosterranno la cooperazione internazionale con standard tecnici condivisi.
L’iniziativa si inserisce nel più ampio contesto della strategia della rete regolatoria europea orientata a sfruttare dati, digitalizzazione e Ai per il bene pubblico, come previsto dal European medicines agencies network strategy (Emans) 2028.
Un segnale forte per l’industria
Il fatto che Ema e Fda abbiano elaborato insieme questi principi rappresenta un’intenzione esplicita di convergenza regolatoria globale. La rapidità con cui l’intelligenza artificiale viene adottata dalle aziende biomedicali – sia per accelerare il drug discovery sia per ottimizzare i processi di test clinici – richiede criteri chiari di affidabilità, sicurezza e trasparenza.
Secondo gli esperti, un approccio basato su principi condivisi può ridurre la frammentazione normativa e facilitare l’adozione di AI tra sviluppatori di medicinali, regolatori e professionisti sanitari.
Dialogo attivo per regole chiare
La partnership regolatoria tra Ema e Fda si basa su un dialogo che ha avuto origine già nel 2024, con incontri bilaterali dedicati all’intelligenza artificiale. Il nuovo documento non solo definisce un orientamento per l’industria, ma lancia un messaggio chiaro: l’Ai nel drug development deve essere gestita con rigore scientifico, controlli di rischio appropriati e sempre nel rispetto della sicurezza del paziente.
