您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[谷歌(Google)]:2025负责任人工智能进展报告 - 发现报告

2025负责任人工智能进展报告

AI智能总结
查看更多
2025负责任人工智能进展报告

序言 人工智能是一种变革性技术,它既为我们实现使命提供了独特的机会,也为我们扩大科学发现和解决世界上一些最重要的问题提供了机会。在谷歌,我们相信我们继续负责任地开发和部署人工智能至关重要,重点是确保人们、企业和政府受益。 在全球范围内,各国均可从其非凡潜力中受益,同时降低其潜在风险的负面影响。 来自我们最新研究与实践的人工智能安全与责任主题信息。它详细介绍了我们基于NIST框架的治理、映射、衡量和管理AI风险的方法,以及我们如何将负责任的AI创新在Google内部付诸实践的最新进展。我们还提供了更多具体见解和最佳实践,内容涵盖从我们严格的红队测试和评估流程到我们如何通过包括更好的安全调整和筛选、安全与隐私控制、产品中的来源技术以及广泛的AI素养教育等技术来降低风险。 框架从其他公司和学术机构中涌现。我们更新的AI原则——以大胆创新、负责任的发展和协作伙伴关系为中心——反映了随着人工智能的快速发展我们所学习到的内容。 2018年,我们是行业中首批采用AI原则的企业之一,自那时起,我们就发布了年度AI责任报告,详细阐述了我们的进展。今年的报告分享了 随着人工智能技术及其发展和应用讨论的不断演进,我们将继续从我们的研究和用户那里学习,并创新新的负责任开发和部署方法。在这个过程中,我们致力于通过发布此类报告等方式,与更广泛的生态系统分享我们所学,同时通过持续参与、讨论和与更广泛社区的协作,帮助最大化人工智能对每个人的益处。 我们对待人工智能责任的方法随着年份的推移而不断演变,以应对我们产品的动态性、外部环境以及全球用户的需求。自2018年以来,人工智能已发展成为每天被数十亿人和无数组织和企业使用的通用技术。责任框架的广泛应用是这一演变的重要组成部分。我们对来自G7和国际标准化组织等机构在人工智能治理方面的进展表示鼓舞,并且也 劳瑞·理查德森 副总裁,信任与安全,谷歌 摘要:我们负责任的人工智能方法 我们开发了一种人工智能治理方法,该方法专注于整个AI开发生命周期的责任。这一方法以我们的AI原则为指导,强调大胆创新、负责任的发展以及协作进步。我们在这个领域的持续工作反映了行业标准指南,如NIST人工智能风险管理框架中的关键概念。 管理 我们的人工智能原则引导我们的决策并告知我们不同领域的发展框架和政策包括针对安全和隐私的 Secure AI 框架,以及针对不断发展的模型功能及缓解措施的 Frontier Safety 框架。此外,还有其他政策用于解决设计、安全以及禁止使用方面的问题。 我们通过研究和专家咨询采取科学方法来映射人工智能风险,将这些输入编码成一个风险分类法。 我们已经开发了一套严格的测量人工智能模型和应用程序性能的方法,重点关注安全、隐私和安全性基准我们的方法持续演变,随着新测量技术的出现而融入其中。 我们部署并演进缓解措施以管理内容安全性、隐私和安全性,例如安全过滤器和解锁保护。 核心组成部分是风险研究涵盖新兴人工智能模型能力、人工智能带来的新兴风险以及人工智能潜在误用的领域。这项研究,我们已在300多篇论文中发表,直接指导了我们的人工智能风险分类法, 启动评估和缓解技术。 多层式红队作战在我们的方法中,内部和外部团队都积极测试人工智能系统以寻找弱点并识别潜在风险,这发挥着关键作用。以安全为导向的红队模拟现实世界的攻击,而以内容为导向的红队则识别潜在漏洞和问题。外部合作并且人工智能辅助的红色团队行动进一步强化此过程。 我们的发布前和发布后流程确保通过明确的要求、缓解支持以及领导审查与这些原则和政策保持一致。这些包括模型与应用要求,重点关注安全、隐私和安全性。发射后监控并且评估有助于持续改进和风险管理。 我们的方法也借鉴了外部领域专业知识,提供新的见解,帮助我们更好地理解新兴风险,并补充内部工作。 模型与应用评估该测量方法的核心。这些评估在启动前后均评估与既定框架和政策的一致性。 我们定期发布外部模型卡和技术报告,以提供透明度进入模型创建、功能和预期用途。我们进行投资。工具用于模型和数据血缘追踪促进透明度和问责制。 摘要:迄今为止我们的负责任人工智能成果概览 构建负责任的AI需要众多群体的合作,包括研究人员、行业专家、政府和用户。 300+关于人工智能责任和安全主题的研究论文 实现了第三方评估中的“成熟”评级,该评级针对Google Cloud AI的 readiness。国家标准与技术研究院人工智能风险管理框架治理与ISO/IEC 42001合规性 我们是该生态系统的积极参与者,致力于最大化AI的潜力,同时保障安全、隐私和安全性。 与外部团体和机构合作,共同承担人工智能责任。前沿模型论坛、人工智能伙伴关系、世界经济论坛、MLCommons、Thorn、内容来源和真实性联盟、数字信任与安全伙伴关系、安全AI联盟和广告委员会 19,000安全专业人士已完成SAIF风险自我评估,以获取针对其组织的个性化AI风险报告。 内容安全政策。我们的政策旨在减轻在儿童安全、自杀和自残等领域的伤害,这些政策是基于多年的研究、用户反馈和专家咨询制定的。这些政策指导我们的模型和产品,以最大限度地减少某些类型的有害输出。一些个别应用,如Gemini应用,也有它们自己的政策指南。我们还优先考虑中性和包容性设计原则,目标是最大限度地减少不公平偏见。此外,我们还有关于人们如何与我们的人工智能模型和功能互动的禁止使用政策。 安全与隐私框架。我们的安全人工智能框架专注于人工智能的安全性和隐私维度。 专用开发框架。 除了谷歌全局框架和政策外,我们的一些应用还拥有特定的框架来指导它们的日常开发和运营。 我们的Gemini应用方法指导着我们日常对该应用的开发及其行为。我们相信,Gemini应用应该: Govern:全栈人工智能治理 政策和原则 1. 遵循您的指示Gemini的最高优先级是为您提供服务。 我们的治理流程建立在我们的原则和框架之上: 人工智能原则。我们建立并不断发展我们的AI原则,以指导我们开发和部署AI模型和应用的途径。这些原则的核心在于追求AI努力,其中可能带来的整体利益远远超过可预见的风险。 适应您的需求。 Gemini致力于成为最有帮助的人工智能助手。 3. 保护您的体验 模型安全框架。前沿安全框架,我们最近对其进行了更新,有助于我们积极准备应对更强大的未来人工智能模型带来的潜在风险。该框架遵循英国人工智能安全研究所提出的“负责任的能力扩展”的新兴方法。 Gemini致力于与一系列政策指南保持一致,并受Google的禁止使用政策管辖。 我们采用全栈式方法来治理人工智能 ——从负责任地开发和应用模型,到发布后的监控和修复。 我们的政策和原则指导我们的决策,包含明确的需求在预发布和发布后阶段、领导层审查和文档工作。 上市前和上市后评论 文档 我们的负责任的人工智能方法反映了行业指南中的关键概念,例如:NIST AI风险管理体系 — 管理、映射、衡量和管理。 我们促进AI治理过程中全过程的透明度和责任制。 我们将我们的原则、框架和政策通过一套启动要求、领导审评和项目结束后要求系统来实现,旨在支持持续的改进。 模型文档。外部模型卡和技术报告定期发布,作为透明度证明。技术报告提供了有关我们最先进的AI模型是如何创建以及如何运作的详细信息。这包括对预期用例、模型的任何潜在限制以及我们的模型是如何与安全、隐私、安全和责任团队协作开发的进行阐明。此外,我们还发布了我们最强大模型和开源模型的模型卡。这些卡片以“营养标签”格式总结了技术报告,以呈现下游开发者所需的关键信息,或帮助政策制定者评估模型的安全性。 模型要求。治理要求针对模型主要关注过滤培训数据以保障质量、模型性能和遵守政策,以及将培训技术记录在技术报告和模型卡片中。这些流程还包括安全、隐私和安全标准。 应用要求。应用发布的要求解决风险并包括测试和设计指南。例如,生成视听内容的软件需要整合如SynthID等稳健的来源解决方案。这些要求基于产品的性质、目标用户群体、计划功能以及涉及的输出类型。例如,提供给未成年人的应用可能需要在家长监督和适合年龄的内容等方面有额外要求。 数据和模型血缘。我们正在投资于强大的基础设施以支持数据和模型线性的追踪,使我们能够了解在AI应用中使用的数据和模型的来源及变化。 领导评估。高级执行审阅员在负责的AI领域拥有专业知识,他们在做出发布决策之前,仔细评估评估结果、缓解措施和风险。他们还监督我们的框架、政策和流程,确保这些内容能够随着新的模式和能力的出现而不断发展。 发射后要求。我们的治理在产品上市后继续进行,对可能出现的问题进行评估。上市后的治理识别未缓解的残余和新兴风险,以及改进我们的模型、应用程序和治理流程的机会。 启动基础设施。我们正在优化我们的基础设施,以简化人工智能产品发布管理、责任测试以及缓解进展监控。 案例研究:提升人工智能透明度——使用模型卡 然而,随着生成式AI模型的发展,我们已经调整了我们最新的模型卡片,例如我们的最高质量文本到图像模型Imagen 3的卡片,以反映AI发展和部署的快速变化的格局。虽然这些模型卡片仍然包含我们在2019年最初提出的某些元数据类别,但也优先考虑清晰度、实用性和用户体验,并包括对模型预期用途、限制、风险和缓解措施以及伦理和安全考虑的评估。 模型卡片于2019年在一篇谷歌研究论文中被引入,作为一种记录和提供关于我们如何评估模型透明度的方法。 模型卡片 模型详细信息 指标 模型基本信息。• 开发模型的人员或组织• 模型日期• 模型版本• 模型类型• 训练算法、参数、公平约束或其他应用方法及特征的信息• 了解更多信息的论文或其他资源• 引用详细信息• 许可证• 提出关于模型的问题或评论的发送方式 指标应选择以反映模型在现实世界中的潜在影响。• 模型性能指标 • 决策阈值 • 变化方法 该论文提出了一些基本的模型卡片字段,这些字段有助于为模型最终用户提供所需信息,以评估如何以及何时使用模型。许多最初提出的字段仍然是当今行业内模型卡片中发现的至关重要元数据类别。 评估数据 详细说明用于定量分析的(数据)集(的信息)。分析卡片中的内容。• 数据集• 动机• 预处理 随着模型的持续演变,我们将努力识别这些模型卡片中模型之间的关键共性。通过识别这些共性,同时保持我们方法上的灵活性,我们可以利用模型卡片来支持共享理解,并提高关于模型工作方式的透明度。 训练数据 前几代我们的模型卡片,例如用于预测3D面部表面几何形状和用于物体检测模型的一个,传达了关于各自模型的重要信息。 可能在实践中无法提供。在可能的情况下,本部分应与评估数据相呼应。如果无法提供此类详细信息,则应在此处提供最小可允许的信息,例如训练数据集中各种因素分布的详细信息。 预期用途 在开发期间设想的使用案例。• 主要预期用途 • 范围外的使用案例 因素 定量分析 可能包括人口统计学或表型群体、环境条件、技术属性,或根据需要列出的其他因素。• 相关因素 • 评估因素 • 单一结果• 交叉结果 道德考量 保留原样:Caveats and Recommendations 我们的2019年研究报告“模型报告模型卡”中建议的模型卡字段。 人工智能滥用研究。绘制生成式人工智能潜在误用的地图已成为研究的核心领域,并有助于我们评估和评估自身模型在这些风险领域,以及潜在的缓解措施。这包括最近关于政府支持的安全威胁行动者如何试图使用AI的研究,以及此类活动是否代表新的风险。 外部领域专业知识 我们通过与外部领域专家和受信任的测试人员合作来增强我们的研究,他们可以帮助我们进一步梳理和了解风险。 外部专家反馈。我们在全球各地的谷歌安全工程中心和行业会议上举办研讨会和演示,从而在学术界、民间社会和商业组织中获得洞察。 受信任的测试员。团队还可以利用外部可信的测试组,这些组根据自己的领域专业知识获得安全访问权限来测试模型和应用。