EMA e FDA tracciano i confini dell’AI nella ricerca farmaceutica: dieci principi per un uso responsabile e sicuro

Immagine News

Due delle principali autorità regolatorie mondiali –  l’Agenzia europea per i medicinali (Ema) e la Food and drug administration (Fda) – hanno annunciato un passo storico verso un quadro regolatorio condiviso.

Le due agenzie hanno pubblicato un set di dieci principi guida per l’uso dell’Ai lungo l’intero ciclo di vita del medicinale, con l’obiettivo di promuovere innovazione, tutela del paziente e allineamento transatlantico delle regole.

La decisione nasce dalla crescente adozione delle tecnologie di intelligenza artificiale in ricerca e sviluppo, che promettono di accelerare tempi e costi del drug discovery, migliorare la generazione di evidenze e persino ridurre la necessità di sperimentazioni animali.

Ma, come evidenziato dalle due istituzioni, questi potenziali benefici si accompagnano a rischi legati a sicurezza, trasparenza, governance dei dati e responsabilità. La collaborazione tra Ema e Fda vuole quindi offrire un primo riferimento condiviso per guidare sviluppatori, regolatori e aziende nell’impiego dell’Ai in modo responsabile ed etico.

I dieci principi: guida alla fiducia nell’Ai farmaceutica

  1. Human-centric by design 
  2. Risk-based approach 
  3. Adherence to standards 
  4. Clear context of use
  5. Multidisciplinary expertise 
  6. Data governance and documentation 
  7. Model design and development practices
  8. Risk-based performance assessment
  9. Life cycle management
  10. Clear, essential information

 

I principi individuati dalle autorità definiscono un quadro di riferimento che bilancia innovazione e tutela del paziente. Tra i punti centrali emerge l’esigenza che gli strumenti basati su Ai siano “human-centric”, cioè progettati per supportare decisioni umane e non sostituirle”, e basati su un approccio legato al rischio, che consideri il contesto specifico in cui l’algoritmo sarà impiegato.

Il documento congiunto sottolinea inoltre l’importanza di chiarezza sul contesto d’uso, governance rigorosa dei dati, multidisciplinarietà nella progettazione dei modelli e documentazione accurata delle metodologie impiegate. La sorveglianza continua delle prestazioni e la gestione dell’intero ciclo di vita del sistema Ai sono considerate requisiti essenziali per garantire che il modello resti affidabile nel tempo.

Pur non costituendo una guida normativa vincolante, questi principi costituiranno la base per l’elaborazione di linee guida più dettagliate in Ue e Usa, e sosterranno la cooperazione internazionale con standard tecnici condivisi.

L’iniziativa si inserisce nel più ampio contesto della strategia della rete regolatoria europea orientata a sfruttare dati, digitalizzazione e Ai per il bene pubblico, come previsto dal European medicines agencies network strategy (Emans) 2028.

Un segnale forte per l’industria

Il fatto che Ema e Fda abbiano elaborato insieme questi principi rappresenta un’intenzione esplicita di convergenza regolatoria globale. La rapidità con cui l’intelligenza artificiale viene adottata dalle aziende biomedicali – sia per accelerare il drug discovery sia per ottimizzare i processi di test clinici – richiede criteri chiari di affidabilità, sicurezza e trasparenza.

Secondo gli esperti, un approccio basato su principi condivisi può ridurre la frammentazione normativa e facilitare l’adozione di AI tra sviluppatori di medicinali, regolatori e professionisti sanitari.

Dialogo attivo per regole chiare

La partnership regolatoria tra Ema e Fda si basa su un dialogo che ha avuto origine già nel 2024, con incontri bilaterali dedicati all’intelligenza artificiale. Il nuovo documento non solo definisce un orientamento per l’industria, ma lancia un messaggio chiaro: l’Ai nel drug development deve essere gestita con rigore scientifico, controlli di rischio appropriati e sempre nel rispetto della sicurezza del paziente.

 

Guiding Principles of Good AI Practice in Drug Development

Grazie per il tuo feedback!