执行摘要 EFPIA 认为人工智能的应用具有为患者、生命科学公司和社会带来益处的潜力。人工智能将在药物产品的研发和生产中发挥越来越重要的作用。这意味着我们可以比以往更快地发现并提供更安全、更有效的治疗方法给患者。 监管框架必须针对药品开发生命周期中人工智能的使用进行量身定制、实用、基于风险、不重复且全球一致。这将确保规则能够促进而非阻碍安全和有效的治疗方法的开发,使其能够更高效地惠及患者。 为了实现人工智能在医学开发中的潜力 , EFPIA 提出了六个关键建议 : 1. 在应用AI时应借鉴现有的欧盟药品法规、指导原则和框架。2. 药品开发中AI的应用监管应归属于欧洲药品管理局(EMA)。3. 需要明确EMA基于风险的AI使用方法在药品监管框架下的具体应用。4. 制定平衡透明度与保护创新的AI政策,在分享与AI模型和数据集相关的信息时。5. 通过健康管理部门之间的合作,形成一致的监管方法,以促进创新并支持安全有效药品的研发。6. 通过行业、监管机构、患者及其他利益相关方之间的紧密合作,增强在药品研究和开发中对AI使用的信任和能力。 我们的最终目标AI治理应根据监管状态和具体应用场景,提供适合且基于风险的监督指导。 EFPIA希望强调在此项倡议中与所有相关利益相关方最高层面参与的重要性。我们强烈敦促尽早建立一个多利益相关方平台,并确保每年至少召开两次会议,以便各利益相关方分享人工智能在该领域的应用经验,从而促进各方面的更快学习。 Introduction 人工智能(AI)可以在药物开发中发挥关键作用。基于AI的工具提供的洞察将影响开发生命周期和医疗保健交付的多个方面。 在创新制药行业中,目前正致力于通过各种方法和工具优化药物开发,其中包括采用人工智能的技术。该行业利用这些工具优化复杂过程,从而实现更为有效和高效的开发路径。这些创新方法的应用建立在当前适用的现有方法、良好研究实践和要求的基础上( 例如传统的统计方法和方法 , 包括基于模型的药物开发) 。 各种计算机辅助方法,如机器学习(ML)、机器人过程自动化和自然语言处理,在药物开发领域已被使用了数十年。然而,是最近的技术进步和计算能力的增强,以及数据获取范围的扩大,如今催生了更广泛的新型人工智能方法——包括生成式AI和分析式AI——在药物生命周期各个阶段的应用探索。 随着人工智能技术以迅猛的速度不断发展,立法机构和监管机构对此给予了越来越多的关注。欧盟在这方面一直处于领先地位,颁布了《欧盟人工智能法案》,这是世界上首部全面的人工智能立法,于8月1日生效。st, 2024.EMA 发布了一项人工智能工作计划这包括从 2023 年到 2028 年的多项行动。工作计划集中在四个方面 : 指导,政策和产品支持 ; 人工智能工具和技术 ; 协作和变更管理 ; 和实验。 2023 年 , 作为 AI 工作计划的一部分 , EMA 发布了一份草案反射纸关于使用人工智能支持药品的安全、有效发展、监管和使用。EFPIA 欢迎就草案反思文件进行利益相关方咨询的机会。最终版本1于 2024 年 9 月发布 , 预计将在药物生命周期中使用人工智能提供进一步的指导。 在这份立场文件中 , EFPIA 正在介绍关于药品生命周期(包括研发、制造及获批后活动)中使用AI的相关政策建议, 如 EMA 监管监督、现有监管框架的适用性和全球协调。 EFPIA 与经合组织(OECD)以及欧盟AI法案对AI系统的定义保持一致:“一个”基于机器的系统设计用于不同程度的自主运行,在部署后可能表现出适应性,并根据显式或隐含的目标从接收到的输入中推断出相关信息。,如何生成输出 , 如预测, 内容,recommendations,或可能影响物理或虚拟环境的决策. 药物生命周期中的 AI 和监管机构汇款 EFPIA 认为,在药品生命周期中使用的AI系统是指任何用于支持研发、开发、制造、使用和/或监测药品的AI驱动的工具或模型。因此,应用领域范围从授权前(如发现、研发、质量管理系统、非临床和临床开发)扩展到授权后(如制造和药物警戒)。 图 1. 在药物生命周期的所有步骤中探索 AI 这个范围与EMA在关于药品生命周期中使用AI的反思文件中提出的AI应用范围相符。2. 然而,EFPIA 同意EMA 关于触发其对AI 的监管监督应为那些不涉及效益风险评估或监管决策的领域。因此,其他没有此类影响的领域不在EMA 和国家主管当局的职权范围内。例如,正如EMA 的草案反思文件中所指出的,“AI/ML在药物发现过程中的应用如仅表现为非最优性能且仅影响开发者,则可能具有较低的监管影响。”. 本文的范围专门集中在 EFPIA 与这些领域相关的建议上可能影响利益风险评估、安全性或相关监管决策的人工智能应用。 EFPIA 认为,人工智能治理的最终目标应该是目的适配、基于风险、非重复且全球协调的监管框架,这些框架应根据人工智能的监管状况和使用背景进行调整。 随着我们共同进入医药领域新的AI政策时代,随着EMA即将发布的关于临床开发和药物流行病学监测中使用AI的指导文件,EFPIA提出以下六点建议: EMA 和更广泛的欧洲药品监管网络 (EMRN) 需要考虑的关键政策建议。 政策建议 1. 在应用人工智能时 , 应利用欧盟现有的药品法规、指南和框架 EFPIA 认为,现有的、成熟的欧盟监管和政策环境(涵盖成熟的立法、监管指南和框架),用于规范药品开发和授权,同样可以借鉴并应用于将AI作为工具在药品生命周期中的使用。 EMA 在药物审批方面拥有长期的安全有效药品审批记录,许多获批的药物采用了新颖和创新的技术、工具和方法。EFPIA 认为,在药物开发过程中引入人工智能方法应被纳入现有的开发和审批流程中。EFPIA认为,现有的框架与未来EMA对AI的指导以及EMA会议互动指南相结合,将足以弥补任何信息和指导方面的空白,以容纳AI工具在药品生命周期中的应用。. 进一步地,我们支持这种做法,因为它将基于现有的监管标准实现监管监督,同时又能灵活应对快速发展的技术。 这些现有和将来的监管框架和政策包括但不限于:设立监管沙箱( 允许测试创新技术的有时间限制的监管框架)在欧洲药品立法修订的背景下3; EMA / HMA AI 工作计划中概述的 EMRN AI 方法4即将到来的EMA关于在药品生命周期中使用AI的指导方针;以及与EMA质量创新小组(QIG)进行的行业交流。 此外,申请人和开发者可以就药品生命周期中的AI应用与监管机构进行讨论,通过现有的交互方式,包括针对特定产品的开发提供的科学建议程序;新型方法学的认证途径;创新工作组会议进行早期互动交流;或在临床试验申请(CTA)审查之前与CTCG(临床试验协调组)进行交流等。 2. 在药物开发生命周期中应用人工智能的监管应在 EMA 的职权范围内 EFPIA 认为,根据《AI法案》,对于仅用于药品研发的AI系统特定用途,不存在要求监管监督的法律义务。EFPIA 支持针对特定部门的方法 , 对药物开发生命周期中的 AI 使用进行监管监督。 EMA是唯一一个拥有生物制药sector及其医药产品研发过程深厚知识的欧洲机构。生物制药sector与EMA和EMRN在制定最佳实践指南和实施方面有着坚实的合作记录。 regulations。历史上,这些资源有助于评估和改进对人工智能的监管监督,并推动欧洲形成一个安全有效的人工智能生态系统。 欧盟人工智能法案规范了投放欧盟市场或投入服务的人工智能系统。根据该法案,大多数具备人工智能功能的医疗设备也将被视为高风险人工智能系统(即需要通过第三方一致性评估系统进行评估)。这些设备除了受人工智能法案的约束外,还需遵守医疗器械法规(MDR)和体外诊断医疗器械法规(IVDR)框架。 在药品开发中使用AI的情况下,EFPIA认为,如果AI系统仅用于药品研发目的,则可免于遵守《欧盟AI法案》的相关要求。欧盟AI法案支持创新和科学研究自由,并不应削弱研发活动。因此,专门为科学研究与开发目的而设计和投入服务的AI系统和模型被排除在其适用范围之外(如解释性说明第25条、第2.6条和第2.8条所述)。通过现有类型的互动(如科学咨询程序)与监管机构讨论使用AI驱动技术进行研发事宜,这是解决特定情境下的使用方式并全面评估高度监管领域内所有过程的最佳论坛。 如果豁免不适用,EFPIA评估大多数用于医药研发的AI应用通常涉及不受附录I中列出的产品特定法律法规(包括医疗器械法规)监管的AI驱动软件,也不属于附录III中高风险用途。因此,根据人工智能法案 , 他们不能合法地符合高风险. 尽管如此,无论药品研发是否在《AI法案》的豁免范围内,行业仍将根据实际情况应用现有的严格规定、指导原则和政策,特别是在临床开发和药物警戒等GxP领域,并包括对使用创新药物开发工具(包括AI)的监督。 总之 , 我们认为即将EMA提供的AI指导将与药品领域已建立并运行良好的立法和监管框架相结合,确保在整个药品生命周期中使用AI的适当监管框架。 3. 明确 EMA 在药品监管框架背景下使用人工智能的基于风险的方法 EFPIA 在关于药物中 AI 的反思论文中支持 EMA 的建议基于风险的方法,考虑到对患者安全的风险及对监管决策潜在影响,应应用于AI驱动药物开发工具的监督。. 然而 , 有必要提供更多的清晰度EMA 如何定义和评估 AI 的相对风险(在适用药物立法的背景下)用于药物生命周期中的不同用途 , 以及用于此类评估的框架。为了澄清,EMA 应该提供人工智能在药品生命周期各阶段使用案例的风险评估示例,以促进利益相关方的理解。我们认为风险应根据AI在特定应用场景中的应用方式来评估。考虑到 AI 模型对患者安全、获益风险评估和 / 或监管决策的影响,并可能对支持营销应用的数据完整性产生影响。所需证据的数量应与评估的风险成比例,以减轻风险、验证并建立AI应用的可信度。 我们注意到,在医疗产品生命周期的各个阶段已有多种风险评估框架存在,而欧洲药品管理局(EMA)的药物委员会(CHMP)已经就多个基于AI/ML的工具提供了资格建议和意见。5,在药品开发过程中推进新型方法学(QoNM)的资格认定进程。EFPIA 支持未来化《QoNM行动计划》的制定,该计划于2024年9月发布,并与EMA至2025年的网络战略和EMA至2025年的监管科学战略保持一致。这包括在2025年底前发布更新的资格认定问答文档,涵盖数字健康技术、AI/ML 基础方法等内容。 此外 , EFPIA 认为基于风险的灵活监管框架,适用于与现有工具和指南相一致的基于AI/ML的药物开发工具。(如计算机系统和电子数据指南的修订版,新增了对AI系统和工具的具体考虑)将确保 AI 的条款和要求不会很快过时鉴于该领域快速的发展节奏。最终这将促进这项创新技术的更广泛采纳和应用,同时确保监管要求与特定AI工具所带来风险的水平及其使用背景相一致。 4. 在共享与 AI 模型相关的信息时 , 平衡透明度和创新保护的 AI 政策。 透明度需要与对医学和技术开发人员的创新保护保持平衡。 EFPIA 认识到适当的透明度要求有助于培养信任并确保患者的用药安全。然而,要求将模型架构、建模日志、验证和测试过程、训练数据以及数据处理管道的描述作为监管提交的一部分,或在某些其他情况下公开披露,这并不被认为是合适的。此外,可能无法提供这些信息,或者评估人工智能对任何监管决策的影响并非必要,也不需要确保患者的用药安全。 这些要求可能会侵犯患者隐私、知识产权、商业秘密以及与人工智能系统相关的临床试验申请(CTA)相关的商业机密信息(CCI)下游环节(例如通过EMA政策0043、政策0070或临床试验信息系统)。这会在欧洲,对制药sector应用AI进行研发的激励措施可能受到削弱,这一点在Mario Draghi于2024年9月发布的关于欧洲竞争力的报告中有所指出。6( 顺便说一句 , 这要求在药物开发中使用人工智能的指