医薬品分野におけるAI活用の最新規制動向:EMA Annex 22とFDA AI Guidance等
AI技術の進展に伴い、医薬品の開発・製造・規制判断におけるAI活用が急速に広がっています。一方で、品質・安全性・説明責任の確保が求められる医薬品分野では、AI導入に対する規制も厳格化しています。本稿では、EMA(欧州医薬品庁)およびFDA(米国食品医薬品局)が2025年に発出(ドラフト)AI関連ガイダンスを中心に、AI活用に関する注意点と規制の方向性を整理・比較します。
発行機関 | 文書名 | 適用範囲 | AI活用に関する注意点 |
EMA(欧州) | Annex 22(ドラフト) | GMP環境でのAI活用(静的モデル) | 静的モデルのみ許容、決定論的出力、説明可能性、HITL、人間の関与、文書化とトレーサビリティ |
FDA(米国) | AI Guidance(2025年ドラフト) | 医薬品ライフサイクル全体(非臨床~市販後) | リスクベース評価、ライフサイクル管理、高リスク用途での人間のレビュー、PQS統合 |
EMA(欧州) | Reflection Paper(2024年) | 医薬品の開発・承認・製造・市販後 | ブラックボックス性の回避、バイアス排除、高リスク用途の識別、EU法との整合性 |
PMDA(日本) | SaMD AI検討会 | AI/MLを用いた医療機器(SaMD) | 性能変化の管理、バイアスとデータ再利用、国際整合性 |
ICH(国際) | ICH-GCP E6(R3) | 臨床試験全般 | 技術中立性、リスクベースアプローチ、データガバナンス |
EMA Annex 22:Artificial Intelligence – 2025 Draft Guidance
本ガイドラインは、医薬品のGMP領域におけるAI技術の使用に関する初の包括的指針。生成AIや動的モデルの使用は重要工程で禁止され、説明可能性・人間の関与・固定出力が求められる。AI導入にはリスク評価と文書化が必須。
ポイントまとめ
- 動的・確率的AIモデルはGMPの重要工程では使用不可
- 生成AIやLLMは除外対象
- AI出力には人間の評価が必須
- モデルの説明可能性(Explainability)と検証性が求められる
🔍 注意点(原文抜粋と和訳)
原文:
“Dynamic models which continuously and automatically learn and adapt should not be used in critical GMP applications.”和訳:
「継続的かつ自動的に学習・適応する動的AIモデルは、GMPの重要な用途には使用すべきではない。」
原文:
“Generative AI and Large Language Models are not acceptable in critical applications.”和訳:
「**生成AIや大規模言語モデル(LLM)**は、重要な用途では許容されない。」
原文:
“A human-in-the-loop (HITL) approach must be applied to ensure suitability of outputs.”和訳:
「出力の適正性を確保するために、**人間の関与(HITL)が必須である。」
FDA AI Guidance: Considerations for the Use of Artificial Intelligence – 2025 Draft Guidance
FDAは、医薬品・バイオ製品の規制判断支援にAIを活用する際の留意点を提示。使用文脈に応じた信頼性評価、モデルリスクの分析、ライフサイクル管理が求められる。申請者は早期にFDAと協議することが推奨される。
ポイントまとめ
- AIモデルの信頼性評価は使用目的に応じて実施
- FDAとの早期協議が重要
- リスクベースでモデルの影響力と結果を評価
- AIモデルのライフサイクル全体で品質・監視が必要
🔍 注意点(原文抜粋と和訳)
原文:
“Sponsors should assess the credibility of an AI model for a specific context of use, considering model influence and decision consequences.”和訳:
「申請者は、AIモデルの使用文脈に応じた信頼性を評価すべきであり、モデルの影響力と意思決定の結果を考慮する必要がある。」
原文:
“Early engagement with FDA is strongly encouraged to discuss AI model development and use plans.”和訳:
「AIモデルの開発・使用計画については、早期にFDAと協議することが強く推奨される。」
原文:
“Model risk should be assessed based on the significance of an adverse outcome resulting from an incorrect decision.”和訳:
「誤った判断による悪影響の重大性に基づいて、モデルリスクを評価すべきである。」