AI智能总结
第12页负责任的AI:从合规到信任03页内容执行摘要:重新思考负责任的AI成为创新准备就绪:负责任的人工智能成熟度的里程碑 第15页第 05 页责任现实检查:企业为负责任的AI做好了哪些准备?高风险业务:当前风险格局的三大挑战 第22页准备好,开始成长:负责任人工智能的五大优先事项从合规到价值:企业正认识到负责任人工智能的影响 负责任的AI:从合规到信任随着生成式人工智能在商业和社会中的普及,使用它所带来的风险也随之增加。考虑一下那个给客户提供了错误建议的聊天机器人,给部署该聊天机器人的公司带来了责任。或者那个在使用ChatGPT后意外泄露了公司专有数据的员工。或者那个错误地将数千人标记为欺诈的算法。这当然说起来容易做起来难,因为跨组织扩展负责任的AI面临的挑战是巨大的。随着生成式AI创造和加速数据和AI风险,AI相关风险持续累积。各地正在孕育新的聚焦AI的法律法规。而且AI价值链1随着越来越多的公司同时成为人工智能模型的开发者和购买者,这些[公式]正变得越来越复杂。执行摘要:重新思考负责任的AI在这个新环境中,对数据和人工智能的负责任开发和使用,成为组织既能降低使用这些技术所带来的风险,又能释放其诸多益处的关键推动力——从帮助个人更高效地完成任务,到允许企业通过创新重塑自我,创造更多价值并获得竞争优势。 01020405负责任人工智能101什么是负责任的AI?什么是成熟的负责任的人工智能?已将负责任的人工智能工作全面投入运行,将其作为一个平台,以更系统化、面向未来的方法来释放人工智能的真实价值。负责任的人工智能成熟度的北极星是成为先驱。目前还没有公司达到这个阶段。建立人工智能治理和原则如何构建一个负责任的AI程序?我们的研究和为客户提供建议的工作表明,所有公司都可以通过关注这五个重点来提高其成熟度,并开始收获人工智能带来的好处。劳动力影响,可持续发展,隐私,安全负责任的人工智能意味着采取有意行动来设计、部署和使用人工智能,通过防止人工智能的潜在风险来创造价值并建立信任。持续监控和合规进行人工智能风险评估 03系统化赋能负责任的人工智能测试 负责任的AI:从合规到信任我们通过建立了一个四阶段框架来评估公司负责任人工智能的成熟度——阶段越高,进展越大。然后我们应用该框架分析了我们调查的1000家公司的组织和运营成熟度。我们的调查受访者估计,当一家公司成为负责任人工智能的先驱时,其人工智能相关收入将增加为了更好地理解公司对人工智能相关风险的态度,以及他们对负责任人工智能的方法,我们与斯坦福大学合作调查1000家公司的C级高管,涵盖19个行业和22个国家。218%平均而言。值得称赞的是,大多数商业领袖都认识到负责任的人工智能在释放商业价值方面的重要性。当今生成式人工智能的时代,在负责任的AI方面带来了新的要求。要成为负责任的AI领域的领导者,企业必须追求预见性思维,致力于持续改进,并将他们的关注点扩展到其组织之外,到其整个价值链和更广泛的AI生态系统。我们称这种新的成熟度为“成为负责任的AI先锋”,目前还没有企业达到这个阶段。 值得注意的是,当我们谈论负责任的AI时,负责任的数据使用是方程式的一个关键部分。在生成式AI时代,数据的重要性不可低估。大多数大型组织仍在应对数据质量、可用性和治理方面的长期问题。在安永对2024年2000名商界领袖进行的另一项全球调查中,48%的人表示他们的组织缺乏足够的高质量数据来实施其生成式AI计划。3拥有高度数据准备度的企业拥有合适的数据,在合适的质量和数量上。它们已经实施了规模化的数据管理和治理实践,这使得它们可以在整个流程中无缝地使用数据,确保负责任的应用,并实现数据的经济价值。他们估计,当一家公司成为负责任人工智能的先驱时,其人工智能相关的收入将平均增长18%。然而,我们的研究发现在我们调查的公司中,绝大多数并没有像他们期望的那样准备好迎接负责任人工智能。负责数据是负责人工智能旅程的有机组成部分点击这里了解更多公司可以采取的关键行动,以在生成式人工智能时代提高其数据准备情况。多年的客户经验表明,公司可以采取行动来系统地实施负责任的AI。在本报告中,我们将探讨能够提供组织基础设施、成为负责任的AI先锋并释放AI真正价值的行为。 010203负责任的AI:从合规到信任一个增加的范围和风险频率一个持续地演化监管风景一个膨胀的风险范围管理跨越价值链高风险业务:当前风险格局的三大挑战人工智能相关风险正在快速演变,尤其是在生成式人工智能广泛传播的情况下。仅在过去的12个月内,我们就见证了新一波风险的出现(例如与幻觉、知识产权(IP)、网络安全和环境影响相关的风险),而数据隐私、可靠性和透明度等更成熟的风险则呈现出新的重要性。这导致风险格局日益复杂。我们发现,风险格局将在三个主要领域继续扩展和演变。 30292926%24%12%图1:公司面临的主要AI相关风险负责任的AI:从合规到信任隐私 & 数据治理安全可靠性透明度人际交互客户/顾客社会环境多元化与非歧视合规与合法品牌/声誉责任组织/商业来源:埃森哲斯坦福高管调查,N=1000。详情请参见“关于研究”。如图1所示,被引用最多的风险涉及隐私和数据治理问题(51%的受访者将其视为公司的风险)。安全性(47%的受访者提到此风险)和可靠性风险(如输出错误、幻觉和模型故障,占45%的受访者)分别位居第二和第三。01 一个不断增加的范围和风险频率 51%47%45%44%35%34%33%%%% 生成式人工智能对不断演变的AI风险格局的影响在许多令企业担忧的风险中也可见一斑。这些风险涵盖透明性以及“黑箱”模型的挑战(44%的受访者提及)、环境以及数据中心对能源的需求(30%的受访者表示关切),到责任归属以及对侵犯版权和其他知识产权的担忧(24%的受访者提及)。欲了解更多关于我们评估的风险维度,请点击此处阅读我们与斯坦福大学合作撰写的论文。近年来,AI风险的数量和类型急剧增加,由AI引发的事件(偏见、深度伪造、幻觉、隐私泄露等)变得更加普遍,根据监测此类事件的AI事件数据库,2023年增加了32.3%4这种趋势应引起企业的警觉。人工智能风险的范围和频率的复杂性不断扩展,这得益于生成式人工智能的进步。因此,负责任的人工智能缓解策略也必须演变和改变,以便企业能够继续快速地采用人工智能。在这种动态环境中,企业不能再对风险做出反应,它们必须学会预测风险。 负责任的AI:从合规到信任02 一个不断演变的监管环境更重要的是,不仅人工智能监管机构需要应对。新生成式人工智能风险的出现正迫使各国政府通过和修改现有法律来采取行动。确实如此,那些在负责任的人工智能方面落后的公司将会将自己置于日益增长的非合规风险之中,随着越来越多的政府开始监管人工智能。欧盟的AI法案启动了引擎,目前有37个以上的国家正在考虑其他AI法规。随着各国政府不可避免地以不同方式选择监管AI,跨国公司的合规将变得越来越困难。这一现实已经影响了我们调查中的大多数公司。77%要么已经面临AI监管,要么预计在未来五年内将受到监管随着各国政府倾向于以不同方式监管人工智能,跨国公司面临的复杂性和困惑可能会加剧。这在很大程度上增加了复杂性。事实上,几乎所有(90%)接受调查的公司预计将在未来五年内受到人工智能相关法律义务的约束,例如网络安全、人工智能相关法律、数据和消费者保护事实上,此类立法在全国和地方各级的发生,正在给公司带来进一步的合规挑战。例如,中国、新加坡、巴西和沙特阿拉伯已提出或引入了新的知识产权或版权法律。2023年,韩国引入了人工智能责任法,这先于欧盟计划推出的类似法律,而加利福尼亚州修订了加利福尼亚隐私权法案(CPRA),赋予消费者选择退出个人数据出售和共享等做法的权利。深度伪造法已在法国、英国、澳大利亚和韩国提出或引入,许多国家正在调查新的人工智能网络安全法律。 77%我们调查的这些公司要么已经面临人工智能监管,要么预计在未来五年内将受到监管。 90%接受调查的公司中有五分之四预计在未来五年内将受到人工智能相关法律义务的约束,例如网络安全、人工智能相关法律、数据和消费者保护。 印度全球人工智能监管举措(截至出版时)澳大利亚德国~列出的倡议并不详尽~沙特阿拉伯• 沙特数据与人工智能管理局人工智能伦理原则(拟议)2023 • 沙特数据与人工智能管理局 - 政府生成式人工智能指南 2024年1月10日 • 沙特数据与人工智能管理局公共生成式人工智能指南 2024年1月11日• 人工智能责任指令 2022 • 数据治理法案 2022 • 数字市场法案 2023 • 欧盟人工智能法案 2024 • 数字服务法案 2024• 安全负责任的AI(中期响应)(2024) • 政府人工智能保障国家框架(2024) • 政府中负责任使用AI的政策(2024) • 高风险环境中AI的强制护栏(提议)(2024)• 人工智能系统安全基础 2022 • 人工智能行动计划 2023• 人工智能机器人测试与认证中心 2024 • 行政和专业任务中使用人工智能的指南 2024• 巴西2021年人工智能战略 • 2021年人工智能法案提案 • 2023年人工智能法案第2238号(拟议))• 2024年国家数字政府战略• 负责任的AI的运营原则 2021 • 数字个人数据保护法案 2023 •公开发布前批准AI工具 2024 • 印度AI报告 2023 • 印度AI任务框架 2024 • 通过监管沙盒鼓励创新技术的建议 2024 日本中国新加坡• 个人信息保护法 2022 • 互联网信息服务算法推荐管理规则 2022• 中国深度合成管理办法 2023 • 生成式人工智能服务管理草案 2024• 人本主义AI的社会原则 2019 • AI应用指南 2019 • AI治理指南 2022 • AI战略 2022 • AI战略委员会 2023 • 广岛进程 2023 • 日本AI安全研究所 2024 • 用于规范生成式AI的立法(提议) • 用于规范和使用生成式AI的国际框架 2024• 人工智能治理方法 + 实施自我评估指南 2020 • 人工智能治理测试框架最小可行产品(mvp)2021 • A.I. Verify 2022 • 新加坡国家人工智能战略2.0(nais 2.0)2023 • 人工智能安全标签(拟议)2024 • 人工智能资助计划助力新加坡经济增长(2024) • 生成式人工智能模型人工智能治理框架(2024) • 模型开发者及应用开发者安全指南(2024) • 新加坡交易所(mas)原则促进人工智能在金融科技中的应用 欧盟巴西 美国UK法国负责任的AI:从合规到信任加拿大• 《C-27法案》:《数字宪章实施法案》 包括《人工智能与数据法案》(AIDA 部分C) 2022 • 《人工智能与数据法案》(AIDA) 2023 • 2024年 联邦投资24亿美元 • 2024年 加拿大人工智能安全研究所• 白宫来自15家主要科技公司在某些安全和透明度要求方面的自愿承诺 2023 • 联邦选举委员会 - 关于在竞选广告中使用欺骗性人工智能的拟议法规 2023 • 国家电信与信息管理局(NTIA)关于人工智能问责制的征求建议书 2023 • 关于人工智能安全、可靠和可信赖的开发和使用的行政命令 2023 • NIST 2024年《通用人工智能(GenAI)与风险管理与框架(RMF)的草案》 • 人工智能安全研究所 2024 • 国家人工智能研究资源(NAIRR) 2024• 政府委员会关于人工智能治理的2022年方法 • 法国人工智能委员会报告2024年 • 法国生成式人工智能计划2024年• 人工智能监管白皮书2023 • 教育领域生成式人工智能2023 • 前沿人工智能工作组2023 • 英国人工智能安全研究所2023 • 英国人工智能安全峰会和布莱切利宣言2023 • 美英关于人工智能安全科学合作2024 • 英加关于人工智能安全科学合作2024 • 监管人工智能:ICO的战略方法202