下载 APP

AI如何向监管证明自己?

  • 作者:樊凤辉
  • 来源:中国医药报
  • 2026-04-16

近年来,AI在制药领域的应用持续深化,从分子生成、工艺设计,到临床开发、上市后评价,AI技术正逐步嵌入药品全生命周期的各个关键环节。但伴随技术落地,一个核心问题愈发凸显:当AI产出用于支撑药物研发、生产、上市后监测等关键决策时,这些产出能否以可追溯、可复核、可治理的方式,融入既有的药品注册审评与质量管理体系。这并非附加要求,而是AI从“展示性应用”走向“监管可接受证据”的关键门槛。


在此背景下,欧美药品监管机构加速协同,相继出台了一系列指导文件,逐步形成了一套统一的监管逻辑与实践框架,这也为我国药企开展国际化申报、构建体系化AI治理能力提供了可参考的路径。


监管共识形成


今年1月,美国食品药品管理局(FDA)和欧洲药品管理局(EMA)联合发布《Guiding Principles of Good AI Practicein Drug Development》(《药物开发中人工智能良好实践指导原则》,以下简称指导原则),确立了贯穿药物全生命周期的10项核心原则,为企业在药物研发、生产、上市后监测等场景中应用AI技术提供指导。EMA在相关公告中明确,指导原则将为后续更具体、更细化的监管指南提供重要支撑。


要精准理解指导原则,需将其置于同一政策脉络下的两份文件中统筹把握。


2024年9月,EMA发布《Reflection paper on the use of Artificial Intelligence (AI) in the medicinal product lifecycle》(《药品生命周期中使用人工智能(AI)的反思文件》,以下简称反思文件),首先明确了AI/机器学习技术应用是否属于EMA及欧盟成员国药品监管机构的职责范畴,监管审查力度将以此为直接依据。在此基础上,反思文件围绕数据偏倚与代表性、模型透明性、验证与变更控制、伦理与法律合规、监管沟通等关键议题展开深入探讨,为企业明晰监管审查重点、优化与监管机构的沟通路径提供了框架。


2025年1月,美国FDA发布AI指南草案《Considerations for the Use of Artificial Intelligence To Support Regulatory Decision-Making for Drug and Biological Products》(《使用人工智能支持药品和生物制品监管决策的考量》),进一步将监管要求落地为可操作的可信度证明路径。FDA指出,该指南草案面向使用AI生成信息或数据,用于支持药品与生物制品安全性、有效性及质量相关的监管决策,不涵盖仅用于药物发现或单纯提升运营效率、不直接影响患者安全与研究结果可靠性的AI应用情形。该指南草案提出“基于风险的可信度评估框架”,用于在明确使用情境下,建立与评价AI模型的可信度。这里的“可信”,指的是验证模型输出是否足以支撑对应决策,并通过合理的验证、文档留存与持续监测,满足监管机构对可靠性与可审计性的要求。


综上可见,欧美监管口径已形成层次清晰的体系架构:指导原则确立统一的基本要求,EMA反思文件系统化呈现监管关注点与风险讨论框架,FDA指南草案则提供以使用情境为核心的可信度评估与证据组织方法。三者共同指向同一核心逻辑:对AI制药的监管不以“模型是否先进”为中心,而是聚焦AI输出如何进入证据链、如何开展验证与治理。


合规实践转向


欧美协同构建的AI监管框架,为我国创新药企业开展国际化申报、搭建合规AI应用体系提供了重要参考。未来企业与欧美药品监管机构沟通时,将拥有统一的“监管语言”,沟通焦点也将聚焦于证据链的可治理性,以及明确使用情境下的可信度证明。


在药物研发领域,明确使用情境的引入,将重塑企业对AI价值的定位与构建证据体系的整体思路。欧美系列监管文件释放出明确信号:AI应用越接近影响药品安全性、有效性及关键开发决策的核心环节,越需要清晰界定其使用情境(或用于支持哪一类判断),并匹配与风险等级相符的验证、监测及文档证据。若企业仅围绕模型区分能力、参数规模等技术指标展开说明,极易在审评沟通中被追问更关键的问题,比如模型输出具体支撑哪个决策环节、适用边界如何、潜在误差可能引发的后果,以及对应的验证与持续监测策略等。


在生产制造与药物警戒领域,监管关注点更集中于药品全生命周期管理与变更控制。在生产制造环节,AI可用于工艺监控、偏差识别、放行辅助判断与持续工艺验证等场景;在药物警戒方面,AI可用于信号检测、病例处理分流与风险评估辅助。EMA反思文件强调监管审查强度与职责范围相关,并重点探讨验证与变更控制等议题,这也提示企业,在高风险环节应用AI技术时,需将模型性能随时间变化的风险纳入体系化管理,通过持续监控、回归验证与变更控制,保障模型在明确使用情境下持续满足预期的可信度要求。


治理体系构建


当前,我国药企的核心任务,是将欧美形成的监管共识,转化为适配自身发展、可落地、可审计、可持续运行的AI治理体系,具体可从六个方面推进。


一是构建可审计的AI证据链。将模型输出视为进入研发与质量决策流程的“数据来源”,在质量体系中建立全流程追溯机制,涵盖数据版本、特征工程/预处理、标签与人工规则、训练与推理配置、模型版本与阈值设定,以及输出结果接入决策节点的完整路径。实践中,可从模型训练与上线环节入手,实施日志化、版本化管理,确保未来在审评或核查场景下,能够完整复原数据来源、处理流程、判断主体及结论形成逻辑。


二是细化并明确AI使用情境。对内管理与对外沟通需统一回应一组问题:模型支撑的具体决策是什么,输出将用于哪一步判断;其功能边界与适用限制;是否需要人机协同完成最终判断;哪些输入变化会触发失效或再验证。相较于单纯展示性能指标,清晰界定使用情境更能帮助监管方与合作方快速识别风险点,明确所需补充的证据。


三是匹配验证与监督策略。验证强度需与风险等级挂钩,风险既取决于模型在业务流程中的影响程度,也关联决策后果。针对高风险应用,需实施严格的前瞻性测试与性能度量,设定明确的性能阈值与失效应急预案,上线后开展定期监测与回归验证。在生产放行、偏差识别等场景,需将模型更新与阈值调整纳入现有变更控制程序。可优先为关键模型建立“性能漂移监测计划”,提前固化触发条件、复验证路径与升级汇报机制。


四是强化数据代表性与偏倚控制。数据治理需从追求规模与效率,转向可审计的代表性与偏倚管理,验证训练与测试数据是否覆盖多样性的目标人群及应用场景,确保模型在性别、年龄、遗传背景、临床分层等关键子群中性能一致。针对真实世界数据,还需同步建立覆盖数据质量、一致性、使用授权与合规链条的审计记录,以满足跨境合作与境外申报的合规要求。


五是建立跨学科协作与责任边界。AI应用落地不能仅依赖算法团队,需整合研发、临床、法规、质量、药物警戒、隐私伦理等多领域人员,共同界定使用情境、风险等级与证据要求;同时,明确责任分工与升级机制,厘清输出结果、放行决策、持续监测的责任主体,构建可执行的治理结构。


六是推进前置化、持续性监管沟通。针对拟纳入关键决策链的AI应用,尽早与监管机构沟通可有效减少后期返工。沟通材料应聚焦使用情境、风险分级、可信度评估计划、验证与监测安排,明确材料提交的时机与颗粒度。


AI技术对于制药行业的真正价值,并非技术概念的前沿性,而是能否以合规、可信、可控的方式融入药品证据链。当全球药品监管机构以“风险为本”“使用情境”“全生命周期管理”为核心关键词来组织政策语言时,中国药企的核心竞争力也将更多体现在体系化治理能力与可审计证据组织能力上。唯有建立适配全球监管的AI质量管理体系,才能真正让AI成为驱动药物研发与产业升级的可靠动力。[作者为泓惠医药科技(北京)有限责任公司首席科学家]


(责任编辑:刘思慧)

分享至

×

右键点击另存二维码!

    相关阅读
网民评论