您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[CSA GCR]:人工智能安全与治理现状 - 发现报告

人工智能安全与治理现状

信息技术2025-12-23CSA GCR
AI智能总结
查看更多
人工智能安全与治理现状

致谢 主要作者 希拉里·巴隆 贡献者 Stephen Lawton Daniele Catteddu Rich MogullJohn Yeoh Anton Chuvakin Douglas Ko 图形设计 斯宾塞·拉姆普 关于赞助商 用无与伦比的网络威胁可见性、统一的安全平台以及 Mandiant 前线专家(由人工智能赋能)让 Google 成为您的安全团队成员。 组织可以利用相同的网络安全专家、能力和安全企业平台来降低数字风险,并确保其人工智能转型。谷歌使用这些技术和平台来保护比世界上任何其他人都更多的个人和组织的安全,我们的行业领先威胁情报为其提供了支持。人工智能增强了所有这些组成部分,使安全团队能够检测更多威胁,减少工作负担,并使生产力提升到新的水平。 目录 致谢........................................................................................................................................................................3 主要作者.........................................................................................................................................................3 贡献者...........................................................................................................................................................3 平面设计......................................................................................................................................................3 关于赞助商............................................................................................................................................... 3 目录.........................................................................................................................................................4 执行摘要.....................................................................................................................................................5 数据速览——AI安全快照...........................................................................................................5 核心洞察............................................................................................................................................................6 1. 治理是成熟度乘数.....................................................................................................6 2. 安全成为AI早期采用者..................................................................................................6 3. 多模型战略中的LLM整合.............................................................................. 6 4. 高管对AI热情高涨,但对其安全性存疑............................................................6 5. AI所有权分散——安全工作正在加强................................................................................6 6. 数据风险成为焦点——但模型风险与安全仍滞后.....................................6 未来展望..........................................................................................................................................................7 核心发现..................................................................................................................................................................8 核心发现1.......................................................................................................................................................... 8 核心发现2........................................................................................................................................................10 核心发现3........................................................................................................................................................12 核心发现4........................................................................................................................................................14 核心发现5........................................................................................................................................................15 核心发现6........................................................................................................................................................17 结论................................................................................................................................................................... 19 人口统计信息............................................................................................................................................................20 调查方法..................................................................................................................................................21 研究目标...............................................................................................................................................21 执行摘要 调查揭示了一个明显的分歧:已建立人工智能治理的组织正加速采用并充满信心,而其余组织则快速发展,但缺乏管理新兴风险所需的结构。随着生成式和能动式AI从试点扩展到生产,治理“拥有者”与“未拥有者”之间的差距正成为准备情况的最强预测指标。今年的CSA-谷歌云调查表明,安全领导者正步入一个定义性的时刻——尽管他们开始使用AI来强化自身安全,但仍致力于确保AI系统的安全。市场正在以惊人的速度发展,治理正浮现为决定采用是负责任地推进还是超越组织管理能力的基石。 随着组织从实验转向运营部署,强大的安全性和成熟的治理是人工智能采用的关键差异化因素。 — 安东·楚瓦金博士,谷歌云首席信息安全官办公室安全顾问 在每一个被调查的领域和地区,组织现在正将人工智能嵌入到核心运营和安全管理流程中。然而,为保障这种采用所需要的管理结构和人才管道仍然在 catch up。 数字一览——AI安全快照 关键见解 1. 治理是成熟度倍增器 4. 执行人工智能热情,关于能否获得能力的问题 拥有正式人工智能治理的组织在发展程度上明显更高: 管理层对人工智能的热情依然高涨,然而大多数受访者(72%)对其所在组织的获取能力表示不确定或中立。虽然70%报告了中等程度到完全的领导层对AI安全问题意识,这个差距强调了深化治理、教育和跨职能协作的必要性。 ●2倍可能采用代理式AI 3倍可能培训员工使用人工智能安全工具●2倍自信在保护人工智能系统 这强化了治理作为负责任创新的基础,以及针对“影子AI”的实际应对措施。 5. 人工智能的归属权是模糊的——安全正在加强 2. 安全成为人工智能的早期采用者 人工智能部署的责任分散到各个职能部门,但安全团队现在在53%的组织中领导AI保护安全不再是被遗忘的细节——它正