AI智能总结
人工智能的迅猛发展与全球治理体系的演进相互交织,引发全球范围内各类组织对于人工智能治理的思考,数据安全、科技伦理、知识产权,以及地缘政治下的供应链风险等成为人工智能全球治理的关键议题。当前对于人工智能治理的探索呈现出两条并行路径:一是“为何治理”的联合国框架,以人权和可持续发展为指引,构建起以透明度、数据安全、伦理合规等为基本原则的治理架构;二是“如何治理”的全周期路径,贯穿从基础设施、数据使用到产品应用的整个链条。安永(中国)企业咨询有限公司(后简称“安永”)与上海赛博网络安全产业创新研究院(后简称“赛博研究院”)联合编写的《2025 全球可信 AI 治理与数据安全报告》立足国家、产业、企业等多维视角,综合分析人工智能治理问题的现状、趋势和未来展望。报告第一章为全球人工智能发展与治理现状的宏观分析,由赛博研究院凭借多年的政策研究积累归纳总结而成。第二章为可信人工智能治理与应用现状调研的结果呈现,调研数据源自安永联合赛博研究院向近百家企业的高管、人工智能治理相关负责人发放的调查问卷反馈。第三章为可信人工智能治理探索的典型案例,案例由安永和赛博研究院的合作企业提供。第四章在前文的基础上对可信人工智能治理的未来发展作出展望。 主要发现 全球宏观治理体系下,政策探路先行。主要国家和地区基本形成治理共识——基于透明、真实、安全、可靠、伦理道德等维度,确保负责任的人工智能实践。 人工智能技术在企业管理(81%)、客户服务(60%)、产品研发(50%)场景的渗透率较高,且企业首选应用开源模型(67%),其次是厂商 SaaS 服务(44%)和独立部署模型(25%)。 企业人工智能应用的影响外溢明显,数据泄露风险(65%)、法律合规风险(42%)和隐私保护风险(33%)是企业应用人工智能最关切的三大风险问题。 企业人工智能治理呈现出“高探索、低成熟”的特征,大多数企业对于人工智能的应用和治理仍处于初级阶段,仅 12% 受访企业制定了明确的目标与战略。 超过一半(59%)的受访企业已设立或正在规划可信人工智能治理委员会,且已启动可信人工智能管理的政策制定工作,但在技术防范优先级上侧重于“传统安全延申”,对 AI 应用自身引发的新型风险防范相对滞后。 企业普遍反馈,合规的复杂程度与成本持续处于高位,技术架构的复杂性、业务与科技的迭代速度提高了治理难度,统一行业框架与最佳实践欠缺增加了探索成本。即便如此,超七成企业对未来五年内 AI 赋能业务持积极预期。 第一章 全球人工智能发展与治理现状02 1.1 主要国家及地区的人工智能发展格局02 1.2 人工智能治理关键议题05 目 录 (1)人工智能治理的关键问题(2)基于产业链视角的治理问题(3)地缘政治引发的供应链问题050707 1.3 人工智能的监管框架08 (1)欧盟:以风险分级为核心,统一立法的监管模式(2)美国:联邦与州双轨并行的分散化“自律”,发展中求安全(3)中国:国家—行业—地方三级治理,统筹发展和安全(4)日韩:“软硬结合 + 协同治理”的监管框架08080910 13第二章 可信人工智能治理与应用现状调研 132.1 人工智能的治理与应用现状概况 13141516(1)企业人工智能战略规划情况(2)企业人工智能技术应用场景分布情况(3)企业大模型的选择与考量(4)企业关于人工智能的资源投入情况 172.2 人工智能应用的风险与顾虑 1717(1)模型可靠性问题受到普遍关注(2)企业应用人工智能将面临的风险 182.3 企业可信人工智能治理建设情况 19202122(1)技术团队为主导、多部门协同的治理架构(2)多元标准融合构建治理体系(3)技术控制延续传统安全措施(4)针对性培训及管理层宣贯不足 232.4 现阶段挑战与未来规划 232425(1)企业追求可信人工智能治理的挑战(2)企业针对可信人工智能治理的未来投资趋势(3)企业对可信人工智能治理的期望 第三章 案例27 典型案例 1:可信 AI 治理体系建构助力企业成为 AI 应用行业标杆27 目 录 (1)企业建构 AI 治理体系的驱动因素(2)企业 AI 治理体系建构思路(3)AI 治理体系落地成效显著272728 典型案例 2:智能安全产品赋能,构建 AI 实时防护体系29 (1)从被动到主动,AI 治理的双重驱动(2)打造“三位一体”AI 安全防护网(3)智能安全产品筑牢可信 AI 护墙292930 典型案例 3:AI 全周期治理,助力企业安全平稳提效31 (1)企业投身 AI 治理的多重考量(2)企业应对大模型治理的创新举措(3)AI 治理实践,数据服务领域的新高度与新突破313132 第四章 未来展望34 附录36 全球人工智能发展与治理现状 THE CURRENT STATUS OF GLOBAL ARTIFICIAL INTELLIGENCE DEVELOPMENTAND GOVERNANCE 从机器学习、深度学习、自然语言处理到人机交互,人工智能(Artificial Intelligence,AI)的本质是对人类智能的一种模拟、延伸和扩展。根据心理学家霍华德·加德纳(Howard Gardner)的多元智能理论,个体具备不同程度的多元智能,比如语言、空间、逻辑数理、肢体动觉、音乐、人际关系、自省、自然智能等,而人工智能正在依托庞大的算力资源和大数据资源,创造新的智能、成为数字经济新的增长极。 纵观全球 AI 发展历程,可以发现人工智能的发展往往以技术突破为标志,同时伴随对 AI 安全和道德伦理等深刻探讨,呈现出在波动中持续发展的特征。从图灵测试奠定人工智能发展基石,人工智能成为一门独立学科,却因技术瓶颈与时代局限造成人工智能发展困境,到深度学习与算法革新带动人工智能部分应用突破,再到以大模型和 AIGC 为标志的新一代人工智能技术推动“AI+”进入应用爆发期。人工智能已然深刻融入生产、生活的方方面面。 C h a p t e r 1 全球人工智能发展与治理现状 面对技术快速发展带来的风险挑战,全球主要国家和地区基本形成 AI 治理共识——从透明性、真实性、安全性、伦理道德、法律及可靠性等多个维度,规范技术开发、部署和应用,确保负责任的人工智能实践。同时,通过国际合作、国际标准制定等方式,加快推动 AI 治理从“共识”走向“共治”。 人工智能治理是指在 AI 系统或大模型开发和应用中出于安全、法律和道德伦理等考虑,采取的一系列流程、标准和防范举措;可信人工智能治理是指通过框架、制度、流程和技术手段以确保人工智能系统在开发、部署和使用过程中是可靠、安全、公正、透明、可问责且符合伦理和社会价值观的行为总和。 1.1 主要国家及地区的人工智能发展格局 目前,全球人工智能发展呈现出“中美双极主导,多强梯队跟进”的分层竞争格局。美国凭借强大的基础研究能力和完善的产业生态系统,持续占据领先地位,中国通过庞大的应用场景实现并行发展,欧盟、日韩等经济体则在细分领域保持竞争力。 构建政策框架,促进多方合作。自 2021 年 1月颁布《2020 年国家人工智能倡议法案》以来,美国陆续推出多项重要政策,包括 2022 年公布的《人工智能权利法案蓝图》,明确指导自动化系统设计、使用及部署过程;2023 年更新的《国家人工智能研究与发展战略计划》提出九项核心战略,涉及长期投资、技术创新、国际合作等多个维度;同年,美国国务院发布《美国国务院人工智能战略》,推动人工智能在基础设施、政策制定、治理等领域的全面进步与应用,促进美国人工智能产业发展。2025 年 7 月,特朗普政府发布《赢得 AI 竞赛:美国 AI 行动计划》。该计划通过第 14179 号行政令取代了拜登政府的 AI 监管框架,提出加速创新、建设AI 基础设施、引领国际 AI 外交与安全三大支柱战略,涵盖 90 多项联邦政策行动,为特朗普 2.0 时代的AI 产业发展奠定了基调。 1. 欧盟:“政策协同 + 规则输出”的发展战略 欧盟一直在促进人工智能产业进展,不仅将人工智能提升到战略地位,还通过政策引导、成员国协同合作以及对人工智能伦理、监管、人才培养、基础设施建设等多方面的综合考量,提高地区人工智能竞争力。 制定综合战略,开展跨国合作。2018 年 4 月,欧洲 25 个国家共同签署《加强人工智能合作宣言》。此后,欧盟接连发布几个重要的政策文件,包括2018 年 12 月发布的《人工智能协调计划》,2020年 2 月发布的《人工智能白皮书一通往卓越和信任的欧洲路径》,2021 年 4 月出台的《人工智能协调计划 2021 年修订版》。2025 年 4 月,欧盟委员会提出一项全面战略——《人工智能大陆行动计划》,旨在通过建设大规模人工智能计算基础设施、改善数据获取质量、加速人工智能在战略领域的应用、强化人才储备、促进监管合规与简化,推动欧盟成为人工智能方面的全球领导者。 成立专业机构,统筹战略规划实施。2018 年成立的“人工智能特别委员会”,负责统筹和协调联邦机构在人工智能的研发、示范、教育以及劳动力培训等领域的合作。2021 年设立国家人工智能计划办公室,负责监督和实施国家人工智能战略,进一步强化联邦机构、私营部门、学术界及国际伙伴在 AI研发与政策制定中的协同合作。 以人工智能办公室为主的组织架构。为促进人工智能未来发展、部署和使用,欧盟委员会于 2024年 5 月宣布成立人工智能办公室,构建了单一欧洲AI 治理系统的基础。目前该办公室由卓越人工智能和机器人、监管和合规、AI 安全、AI 促进社会公益、AI 创新与政策协调等 5 个部门构成,强化可信 AI的开发与应用,促进国际合作。 搭建风险导向,灵活适用的标准框架。美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》(AIRMF1.0)采用“自愿采纳、指导优先”的实施策略,为人工智能全生命周期管理提供灵活的风险评估工具。作为一项非强制性指导文件,适用于 AI 系统设计、开发、部署及使用等各阶段,不仅为产业实践提供规范性指导,还避免刚性约束对技术创新的潜在限制。 推动以标准建设为核心的规则输出。欧盟凭借“布鲁塞尔效应”,制定具有引导性的监管标准,引导国际企业主动采用其规则体系,从而扩大自身在全球治理领域的影响力。 2. 美国:“创新引领 + 安全平衡”的双轨战略 美国不断加强在人工智能领域的战略部署和标准制定,通过建立动态的政策体系、创新多元的协同机制,实施“以风险为导向、灵活适用”标准框架,巩固在全球人工智能产业中的领导地位。 3. 中国:“顶层设计 + 场景赋能”的发展路径 中国持续推动人工智能技术创新和产业升级,通过系统性政策引导、产学研协同创新,以及在技 发布战略规划,构建完善的政策体系。2016 年起,日本相继推出《下一代人工智能促进战略》《人工智能技术战略》《以人为本的 AI 社会原则》及《AI战略》系列文件,不断强调技术创新与社会应用。2025 年 5 月,日本参议院通过《AI 相关技术研发及应用促进法》,采取柔性立法方式,避免过度监管限制创新;韩国在 2019 年 12 月发布《人工智能国家战略》,提出从“IT 强国”发展为“AI 超级强国”的目标,并陆续出台《人工智能半导体产业发展战略》《国家人工智能伦理标准》等配套政策。2024年 12 月,韩国发布《人工智能法案》,成为全球第二个通过综合性 AI 立法的国家,重点推动 AI 特区建设、数据中心发展及中小企业扶持。2025 年 8 月,韩国发布了作为未来五年经济发展蓝图的“新政府经济增长战略”,以企业主导、政府支持的模式大力推动人工智能及超级创新产业的发展,推进“人工智能大转型”事业,将人工智能融入企业、公共服务等各个领域。 术研发、应用场景、标准制定等多方面的综合推进,中国在全球人工智能领域的核心竞争力得到全面提升。 强化顶层设计,引领产业纵深发展。自 2017年发布《新一代人工智能发展规划》以来,中国