2025 负责任人工智能透明度报告 我们如何构建、支持我们的客户并成长 内容 前言02 关键要点03 我们如何负责任地构建生成式人工智能系统和模型06 治理:政策、人员及流程08 地图:识别风险14 指标:评估风险和缓解措施16 管理:减轻人工智能风险21 我们如何就发布生成性做出决策 人工智能系统和模型26 生成式人工智能系统和模型的部署安全27 敏感应用与新兴技术计划34 我们如何负责任地支持客户构建人工智能38 人工智能客户承诺39 支持负责任部署的工具41 透明化以支持我们的客户负责任地开发和使用47 我们如何学习、进化、成长50 对研究的投资51 通过良好治理推进人工智能创新与采纳54 调谐多方利益相关者的输入59 展望未来60脚注 62 2024年5月,我们发布了首份《负责任人工智能透明度报告 》。我们感谢来自世界各地利益相关者的反馈。他们的见解促成了这份第二份《负责任人工智能透明度报告》,该报告强调了我们对开发人们信任的人工智能技术的持续承诺。我 前言们的报告重点介绍了与负责任地构建和部署人工智能系统、 如何支持我们的客户和更广泛的生态系统以及我们如何学习和进化的新进展。 过去一年,各规模的组织掀起了一股采用人工智能的浪潮,促使人们重新关注实践中有效的AI治理。我们的客户和合作伙伴渴望了解我们如何在微软上扩展了我们的项目,并开发了使高级规范运作起来的工具和实践。像我们一样,他们发现构建可信的AI对业务有益,良好的治理能够解锁AI的机会 。根据IDC的微软负责任AI调查,该调查收集了有关组织态度和负责任AI现状的见解,超过30%的受访者指出治理和风险管理解决方案的缺乏是采用和扩展AI的首要障碍。1相反地,超过75%使用负责任人工智能工具进行风险管理的人表示,它们有助于数据隐私、客户体验、自信的商业决策、品牌声誉和信任。 通过实践反映最先进技术的进步,并确保我们能够对我们的利益相关者提供反馈。我们原则性和迭代方法的学习成果反映在本报告的页面上。随着我们治理实践的不断发展 ,我们将主动与我们的利益相关者分享我们的新见解,无 论是在未来的年度透明度报告中还是在其他公开场合。 在未来一年,我们将专注于开发更具灵活性和敏捷性的风险管理技术,通过共享规范和有效工具推进充满活力的生态系统,并支持人工智能供应链的有效治理。这些努力将增强不仅是像微软这样的人工智能开发者和部署者的能力 ,还有我们客户和合作伙伴有效地实施治理的能力,从而以与人工智能创新相匹配的速度培养我们所需要的信任。 我们期待继续通过人工智能技术赢得、建立和保持信任,帮助全世界的人们受益于其深远的潜力。 我们过去一年也看到了新的监管努力和法律的出台。由于我们在微软近十年投入资源将负责任的AI实践付诸运营,我们已做好充分准备,以遵守这些法规,并赋能我们的客户也做到同样。然而,我们的工作还没有完成。正如我们在报告中详述的,支持跨国界AI技术采用的效率和效果监管和实施实践仍在定义中。我们仍专注于为全球的标准制定和规范制定工作贡献我们的实践经验。 在所有这些治理方面,我们都应保持方法的灵活性,应用我们从实际部署中获得的经验,更新我们 娜塔莎·克莱蒙顿 首席人工智能官 特蕾莎·哈特森 公司副总裁 Content 前言3 关键要点 2024年,我们在负责任的AI工具、政策和实践方面进行了关键投资,以跟上AI创新的步伐 。 1 我们改进了我们的负责任人工智能工具为了为超出文本的模态(如图像、音频和视频)提供扩展的风险测量和缓解覆盖范围,以及为代理系统、我们预计将在2025年及以后代表重要人工智能投资和创新领域的半自主系统提供额外支持。 2 我们采取了主动的、分层的合规方法随着新的监管要求,包括欧盟的《人工智能法案》,我们向客户提供资源和材料,使它们能够根据相关法规进行创新。我们早期在建立全面且行业领先的负责任人工智能项目方面的投资 ,使我们能够顺利在2024年将人工智能监管准备工作的力度提升。 3 我们继续采用一致的风险管理方法通过我们的预部署审查和红队工作,贯穿发布过程。这包括对高影响和高风险的人工智能 和生成式人工智能发布进行监督和审查,包括添加到AzureOpenAI服务中的每个旗舰模型以及每个Phi模型的发布。为在这些审查中进一步支持负责任的AI文档,我们推出了一款内部工作流工具,旨在集中列出负责任的AI标准中的各种负责任的AI要求。 4 我们继续为人工智能的高影响和高风险使用提供实践指导通过我们的敏感用途和新兴技术团队。生成式人工智能应用,特别是在医疗保健和科学领域,是2024年显著的增长领域。通过从案例中提炼见解并与研究人员互动,该团队为新型风险和新兴人工智能能力提供了早期指导,从而推动了创新并孵化了新的内部政策和指南。 5 我们继续依靠研究中的见解为了让我们了解与社会技术问题相关的AI最新进展,我们成立了AI前沿实验室,以投资推动AI系统能力、效率和安全性前沿的核心技术。 6 我们与来自世界各地的利益相关者合作以取得进展朝着建立连贯治理方法的方向发展,以帮助加速采用并允许各类组织跨界创新和使用人工智能。这包括出版一本探讨跨领域治理的书籍,并帮助推进用于测试人工智能系统的凝聚性标准。 Content 关键要点5 第一节 HowwebuildHowwedecideHowwesupportHowwelearn 我们如何负责任地构建生成式人工智能系统和模型 在微软,我们始终专注于我们的使命,即赋能每个人和每个组织成就更多。在人工智能时代,人类加速取得的潜力比以往任何时候都更大。我们清楚地认识到我们在塑造这项技术中所扮演的角色,以及我们对人们不信任的技术不会使用这一点的理解。对于我们而言,在人工智能时代赢得信任的日常工作要求我们将人置于我们设计、开发、部署人工智能的中心——这一实践始于2016年我们人工智能原则的初稿。2 正式成立于2018年,我们的公平、可靠和安全、隐私与安全、包容性、透明度和问责制的人工智能原则,继续作为我们永恒的指南针。多年来,我们不断回参照这些原则 新的AI技术解锁了先前无法预见的能力和风险。我们的原则为我们提供了建立新政策、工具和实践,或完善现有政策的轮廓,随着AI技术和监管的不断快速发展 当我们开发和部署新的生成式人工智能系统和模型时,我们利用由美国国家标准与技术研究院(NIST)创建的人工智能风险管理框架,3它包括四个关键功能:治理、映射 、衡量和管理。在本节中,我们描述这四个功能如何指导 我们开发和发展人工智能,并强调自2024年5月发布我们的第一份透明报告以来我们所做的变革和进步。 我们如何构建生成式AI系统 我们采用多层方法来管理和减轻生成式AI系统和模型在AI开发生命周期中的风险。 地图 管理 管理 测量 Content 我们如何负责任地构建人工智能并做出部署决策7 管理:政策、实践 Howwebuild Howwedecide HowwesupportHowwelearn 和流程 我们负责任的AI治理架构旨在帮助我们在AI开发生命周期中始终如一地坚持我们的AI原则。我们的治理工作定义了与我们的原则相符的政策,阐述了执行这些政策的角色和责任,使微软的整个团队培养主动风险管理文化,并建立了通过设计强化负责任AI的流程。4 政策与实践 我们治理工作以及我们AI工作的基石,是我们的负责任AI标准。该标准于2019年首次开发,并于2022年重新改版公开发布,是我们构建与我们的六项AI原则保持一致的AI系统的内部手册。5随着新的AI能力、风险和监管要求的涌现,我们基于标准来完善现有要求或定义新要求。 2023年,我们为生成式人工智能系统制定了一套具体的内部要求,以帮助我们应对其带来的新风险。2024年,我们继续更新和完善这些要求,包括作为我们积极主动、多层次遵守新监管要求(包括欧盟人工智能法案)方法一部分,建立新的模型开发和部署政策。跨职能工作组确定了关键要求,以帮助我们的微软团队为执法截止日期做好准备,并支持我们客户自身的合规工作。 我们的前沿治理框架通过与更广泛的AI治理计划相结合,借鉴了风险评估、测试、以及安全和安保缓解措施的最佳实践。我们预期随着我们对AI风险和风险缓解技术的理解不断改进,该框架将随着时间的推移而更新。我们期待与行业、政府和公民社会的各方合作,通过这一框架制定和应用最佳实践。 鉴于人工智能创新和全球监管发展的快速速度,我们于2024年专注于简化我们的政策到实施管道。该管道的第一步由我们的负责任人工智能办公室识别和优先考虑新政策或指南的开发。这一步骤受到全球监管发展的影响。 世界;部署前审查流程、红队演练行动以及产品路线图;以及来自持续监控和事件响应工作的其他信号。 从那里开始,负责任的AI办公室领导一个政策制定过程,该过程涉及与包括微软研究人员、工程团队、法律顾问和其他政策专家在内的多利益相关者小组进行协商。与政策制定并行,负责任的AI工程团队为团队开发工具和具体的技术说明 。最后,新的政策及其配套资源共同构建,在发布前在工程团队中推广,以帮助他们理解期望和可用的资源。 负责任的AI政策到实施流程 ReadmoreabouttheEUAIActonpage10 进料 我们针对模型开发和部署的新政策包括我们于2025年2月向公众分享的边界治理框架。6该框架源于2024年5月微软与十五个其他AI组织在全球各国政府支持下自愿达成的《前沿AI安全承诺》。该框架具有监测功能,追踪新兴和先进AI模型能力可能出现被滥用而威胁国家安全或大规模公共安全风险的情况。它还制定了评估和缓解这些风险的过程,以便前沿AI模型能够以安全可信的方式部署。 开发 策略和工具 计划 审查启动 准备 启动 Content GOVERN:政策、实践和流程9 Howwebuild Howwedecide Howwesupport Howwelearn 欧盟人工智能法案实施工作 遵守我们在每个运营地区的法律法规是我们业务实践的核心 。我们的客户信赖我们构建值得信赖的技术,这意味着我们需要紧跟快速发展的法规和技术发展,并在同时更新我们的实践和政策。 根据通用人工智能(GPAI)实践指南而采取的行动和细节 。2025年2月生效的第一套规定是人工智能素养要求以及禁止使用人工智能进行社会评分和实时生物识别等行为的规定 。微软已采取多种举措,根据欧盟人工智能法案,推广人工智能素养,使我们的员工、客户和其他人能够负责任地利用人工智能技术。 更新我们的合同,包括我们的微软企业人工智能服务行为准则,8为了确保我们的客户清楚地理解他们不能从事任何禁止的行为。例如,微软企业人工智能服务行为准则现已明令禁止使用该服务进行社会信用评分。 在2025年下半年,我们计划通过新的信息来增强我们的报告 ,这些信息将详细说明用于训练微软开发的GPAI模型的培训内容。这符合我们对透明度的承诺、即将到来的监管要求以及我们对下游负责任使用我们的GPAI模型的支持。 • 一个典型的例子是我们的欧盟人工智能法案的实施,这是一部综合性的新法律,在所有欧盟成员国中建立了统一规则,以应对对健康、安全和基本权利的潜在人工智能风险 。欧盟有意将法案的实施分阶段进行多年,以确保企业有足够的时间满足法案的监管要求,初步义务将于2025年2月2日生效。 ReadmoreaboutourAIliteracyeffortsonpage49 根据这些合规截止日期,我们主动采取了分层方法来准备遵守禁止行为规定,包括: 2024年,微软加入了一个多方利益相关者流程,以支持欧盟人工智能法案实施指南(GPAI模型)的开发。GPAI模型的实施指南旨在包含一套符合人工智能法案中GPAI模型提供者义务的指导方针,这些义务将于2025年8月生效。从实施指南中出现的早期信号出发,我们采取了类似的分层方法来准备合规,这包括: 《人工智能法案》将责任分散到人工智能供应链中的各个环节,不同的责任适用于不同的实体,包