您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[埃森哲]:2024 年从规到从信 : 产业 AI 成成熟度报 — — 包容新维上升负责 AI 成成熟度 - 发现报告

2024 年从规到从信 : 产业 AI 成成熟度报 — — 包容新维上升负责 AI 成成熟度

信息技术2024-01-03-埃森哲灰***
AI智能总结
查看更多
2024 年从规到从信 : 产业 AI 成成熟度报 — — 包容新维上升负责 AI 成成熟度

拥抱新的思维方式来推进负责任的 AI 成熟度 Contents Page 03 Page 10 Page 05 从合规到价值 : 公司正在承认负责任的 AI 的影响 执行摘要:重新思考负责任的 AI Page 12准备好重塑 : 负责任的AI 成熟度的里程碑 Page 22 Page 15 准备 , 设置 ,成长 : 负责任的AI 的五个优先事项 责任现实检查 : 公司对负责任的 AI 做好了多大准备 ? 执行摘要 : 重新思考负责任的 AI 负责任的 AI 101 什么是负责任的 AI ? 负责任的AI意味着采取故意行动来设计、部署和使用AI,以创造价值并建立信任,同时防范AI潜在的风险。 随着生成式AI在商业和社会中的普及,与其使用相关的风险也在增加。考虑这样一个聊天机器人给出了错误建议给客户,导致推出该聊天机器人的公司面临法律责任。或者员工在使用ChatGPT后不小心泄露了公司的专有数据。又或者算法错误地将成千上万的人标记为欺诈行为。 在这一新环境中,负责任的数据和AI的发展与应用成为组织实现其诸多益处的关键使能器,既包括通过这些技术最小化潜在风险,也包括利用它们提高个人工作效率、加速任务完成速度,以及使公司能够通过创新重塑自我,从而创造更多价值并获得竞争优势。 什么是成熟的负责任的 AI ? 已经将负责任的人工智能努力全面运作化,作为平台采取更加系统性和未来导向的方法,以释放人工智能的真实价值。负责任的人工智能成熟度的北极星是成为先行者。目前还没有公司达到这一阶段。 你如何建立一个负责任的 AI 程序 ?我们的研究和为客户提供的咨询服务显示,所有企业都可通过专注于这五大优先事项来提升自身的成熟度,并开始从人工智能中获益。 这当然更容易说而不是做到,因为在整个组织范围内规模化负责任的人工智能所面临的挑战是巨大的。随着生成式人工智能创造和加速数据和AI风险的积累,与AI相关的风险持续累积。新的以AI为重点的法律法规正在全球各地萌芽。而且AI价值链1越来越复杂 , 特别是随着越来越多的公司成为 AI 模型的开发者和购买者。 01建立 AI 治理和原则 02进行 AI 风险评估 03系统支持负责任的 AI测试 05劳动力影响、可持续性、隐私、安全 04持续监控和合规性 我们的调查受访者估计,当一家公司成为负责任人工智能的先驱时,其与人工智能相关的收入将会增加。 负责任的数据是负责任的 AI 旅程的组成部分 当讨论负责任的人工智能时,数据的合理使用是方程中至关重要的部分。在生成式人工智能时代,数据的重要性不容低估。大多数大型组织仍在应对数据质量、可用性和治理方面的长期问题。根据埃森哲在2024年对2000名商业领袖进行的一项独立全球调查,48%的受访者表示其组织缺乏足够的高质量数据以实现其生成式人工智能项目的价值。3具备高数据准备度的公司拥有合适的数据,这些数据在质量和数量上都是适当的。它们已经建立了规模化的数据管理与治理实践,这使得数据可以在整个流程中无缝使用,确保负责任的数据采用并促进数据的经济价值。 18%平均而言。 当今生成式AI的时代对负责任AI提出了新的要求。要成为负责任AI的领导者,公司必须追求前瞻性的思维模式,承诺持续改进,并将关注范围扩展到整个价值链和更广泛的AI生态系统。我们称之为这一新成熟度水平为“成为负责任AI的先驱”,目前还没有公司达到这一阶段。 调查了遍布 19 个行业和 22 个国家的 1000家公司的高管。2 单击此处了解更多关于公司可以采取的关键行动 , 以提高他们在生成 AI 时代的数据准备程度。 我们通过建立一个四阶段框架来评估企业在负责任AI方面的成熟度——阶段越高,进展越大。然后我们将这一框架应用于分析我们调查的1,000家公司的组织和运营成熟度。 他们估计,当一家公司成为负责任AI的先行者时,其相关的AI收入平均将增长18%。然而,我们的研究发现,我们调查的大多数公司在这方面并不如他们所期望的那样准备充分。 多年的客户经验告诉我们,企业可以通过系统化的方式实施负责任的人工智能。在本报告中,我们将探讨能够为企业构建负责任人工智能组织架构并解锁人工智能真正价值的行动措施。 值得称赞的是 , 大多数商业领袖都认识到负责任的人工智能在释放商业价值方面的重要性。 为了更好地了解企业对AI相关风险的态度以及它们负责任的AI方法,我们与斯坦福大学进行了合作。 风险业务 : 当前风险格局的三大挑战 相关的人工智能风险正在迅速演变,尤其是在生成式人工智能广泛传播的情况下。仅在过去一年里,我们已经看到一系列新的风险浮现(如幻觉、知识产权(IP)、网络安全和环境影响等方面的风险),而数据隐私、可靠性和透明性等更为成熟的風險则重新获得了关注。这导致了日益复杂的-risk-landscape。 我们发现 , 风险格局将在三个主要领域继续扩大和演变。 01 增加范围和风险频率 生成式AI对不断演变的AI风险格局的影响在许多令公司最为担忧的风险中也有所体现。这些风险涵盖了从透明度和“黑箱”模型的挑战(被44%的受访者提及),到环境和数据中心的能量需求(令30%的受访者担忧),再到责任问题以及侵犯版权和其他知识产权的担忧(被24%的受访者提及)。要了解我们评估的风险维度,请点击此处阅读与斯坦福大学合作撰写的论文。 被引用最多的风险,如图1所示,涉及对隐私和数据治理的关注(51%的受访者将其视为其公司的风险)。安全问题(47%的受访者提及)以及可靠性风险,如输出错误、幻觉和模型故障(45%的受访者关注),分别位列第二和第三。 随着近年来AI风险的数量和类型显著增加,由AI驱动的事件(如偏见、深度合成、幻觉、隐私泄露等)变得更为常见。根据监控此类事件的AI事件数据库的数据,这些事件在2023年增加了32.3%。4这一趋势应引起公司的警觉。AI风险的复杂性在范围和频率上不断扩展,受到生成式AI技术进步的加速推动。因此,负责任的AI缓解策略也必须随之演变和变化,以便公司能够继续快速采用AI。在这种动态环境中,公司不能仅仅对风险作出反应,而必须学会预见这些风险。 这只会增加复杂性。事实上 , 几乎所有(90%)被调查的公司预计在未来五年内将面临与人工智能相关的法律义务,如网络安全、人工智能相关法律法规、数据和消费者保护。这样的立法同时在国家和地方层面进行,为公司带来了更多的合规挑战。 这也意味着,在责任AI方面落后的企业将面临日益增大的合规风险,因为越来越多的政府开始对人工智能进行监管。 77% 我们调查的公司要么已经面临人工智能监管, 要么预计在未来五年内将受到人工智能监管。 欧盟的AI法案已经启动,目前有超过37个国家正在考虑其他AI监管措施。随着各国政府不可避免地选择以不同的方式监管AI,跨国公司合规工作的难度将越来越大。这一现实已经影响到了我们调查中的大多数公司,77% 的人要么已经面临人工智能监管 , 要么希望在未来五年内受到监管. 鉴于各国政府倾向于以不同的方式监管AI,这将 likely 导致跨国公司在复杂性和困惑方面面临更大的挑战。 90% 受访公司的多数预计在未来五年内将面临与人工智能相关的法律义务,如网络安全、人工智能相关法规、数据和消费者保护。 例如,中国、新加坡、巴西和沙特阿拉伯提出了或引入了新的知识产权或版权法。2023年,韩国引入了一部AI责任法,这先于欧盟计划中的类似法律。与此同时,加州修订了《加州隐私权利法案》(CPRA),赋予消费者选择退出诸如个人数据的销售和共享等实践的权利。法国、英国、澳大利亚和韩国提出了关于Deepfake的法律,而多个国家正在探讨新的AI网络安全法。 此外,这不仅仅是人工智能监管组织需要应对的问题。新兴的生成式AI风险正在促使政府通过和修改现有法律法规采取行动。 全球 AI 监管举措(截至发布) ~ 列出的举措并非详尽无遗 ~ 中国 UK EU Germany • 人工智能监管白皮书(2023) • 教育领域的生成型人工智能(2023) • 先锋人工智能工作组(2023) • 英国人工智能安全研究所(2023) • 英国人工智能安全峰会及布莱切利宣言(2023) • 美英人工智能安全科学伙伴关系(2024) • 英加人工智能安全科学伙伴关系(2024) • 监管人工智能:信息专员办公室的战略方法(2024) • 人工智能责任指令 2022 • 数据治理法案 2022• 数字市场法案 2023 • 欧盟 AI 法案 2024 • 数字服务法案 2024 • 个人信息保护法(2022年) • 互联网信息服务算法推荐管理规定(2022年) • 中国深度合成规定(2023年) • 生成式人工智能服务管理措施(2024年草案) • 人工智能系统安全性基础(2022年) • 人工智能行动计划(2023年) • 基于AI的机器人测试与认证中心(2024年) • 行政和专业任务中使用AI的指南(2024年) Japan • 以人为本的AI社会原则2019• 2019年人工智能使用指南• 2022年人工智能治理指南• 2022年人工智能战略• 2023年人工智能策略委员会• 2023年广岛过程• 日本人工智能安全研究所2024• 调整生成式AI的立法(提议)• 调节和使用生成式AI的国际框架2024 加拿大 • 《C-27号法案:数字宪章实施法案,包括人工智能和数据法案(AIDA部分C)》(2022年)• 《人工智能和数据法案》(AIDA)(2023年)• 2024年联邦投资2.4亿加元• 加拿大AI安全研究所(2024年) 法国 • Conseil d 'etat 关于 AI 治理的方法 2022 • 法国 AI委员会报告 2024 • 法国 genAI 计划 2024 新加坡 • AI治理方法 + 实施自我评估指南(2020年)• AI治理测试框架最小可行产品(MVP,2021年)• A.I. Verify(2022年)• 新加坡国家AI战略2.0(NAIS 2.0,2023年)• AI安全标签(拟议,2024年)• 促进新加坡经济增长的AI资金计划(2024年)• 生成式AI的模型AI治理框架(2024年)• 模型开发者和应用开发者的安全指南(2024年)• MAS原则以促进AI使用中的FEAT 沙特阿拉伯 巴西 • 沠达利数据与人工智能管理局提出的2023年人工智能伦理原则• 沙特数据与人工智能管理局-政府生成人工智能指导方针,2024年1月10日• 沤达利数据与人工智能管理局-面向公众的生成人工智能指导方针,2024年1月11日 • 2021 年巴西人工智能战略 • 2021 年人工智能法案提案 • 2023 年人工智能法案第 2238 号 (拟议)2024 年国家数字政府战略 美国 • 白宫15家领先科技公司自愿承诺遵守某些安全和透明度要求(2023年)• 国家选举委员会关于竞选广告中使用欺骗性AI的拟议规定 (2023年)• 国家电信和信息管理局(NTIA)关于AI问责制的RFI(2023年)• 关于安全、可靠和可信赖的人工智能开发和使用的行政命令(2023年)• NIST Draft GenAI 补充RMF(2024年)• AI安全研究所(2024年)• 国家人工智能研究资源(NAIRR,2024年) 澳大利亚 印度 • 安全负责的人工智能(临时响应)(2024)• 政府人工智能保障国家框架(2024)• 政府中负责任使用人工智能的政策(2024)• 高风险环境下人工智能的强制性防护措施(拟议中)(2024) • 负责任的AI原则的实施(2021年) • 数字个人数据保护法(2023年) • 公共发布前批准AI工具(2024年) •印度AI报告(2023年) • 印度AI使命框架(2024年) •通过监管沙箱促进创新技术的建议(2024年) 03 整个价值链的风险管理范围不断扩大 Onl