AI智能总结
白皮书 10 月 2024 Getty Images , 中途图片 : Contents 前言 3 执行摘要 4 导言 5 1 线束超过 6 1.3101.411明确周围的期望责任分配评估现有监管机构的能力有效执行1.2解决政策目标之间的紧张关系9 多种监管制度1.1检查复杂的现有法规6 通过生成 AI 属性 2Build present122.1应对利益相关者群体的挑战122.2促进多利益相关方的知识共享18 和跨学科的努力 3 规划未来 21 贡献者 28尾注 33结论 273.1有针对性的投资和提升技能213.2地平线扫描223.3战略远见253.4影响评估和敏捷法规253.5国际合作26 免责声明 这份文件由世界经济论坛发布,作为对一个项目、洞察领域或互动的贡献。文中所述的研究发现、解释和结论是世界经济论坛促成并认可的合作过程的结果,但其结果不一定代表世界经济论坛的观点,也不一定反映世界经济论坛全体成员、合作伙伴或其他相关方的意见。 © 2024 世界经委会. 保留所有权利。本出版物的任何部分均不得以任何形式或通过任何手段进行复制或传输,包括复印和录音,或通过任何信息存储和检索系统。 前言 Cathy Li主管 人工智能、数据与元宇宙;第四次工业革命中心副主任;世界经济论坛执行委员会成员 Arnab Chakraborty埃森哲首席负责 AI 官 我们生活在一个快速创新和全球不确定性并存的时代,生成式人工智能(AI)作为一股变革力量脱颖而出。这项技术影响着全球各行业、经济和社會。随着欧盟(EU)《人工智能法案》的生效,我们有了全面规制人工智能的先例。美国、加拿大、巴西、非洲联盟、日本和中国也在各自制定自己的监管方法。这一关键时刻呼唤具有远见卓识的领导力和协作性的前瞻治理方式。 这篇论文是这些努力的结晶,为政策制定者和监管机构提供了应对生成式AI复杂性的清晰路线图,通过考察现有监管空白、各种利益相关者的独特治理挑战以及该技术不断演变的形式。本论文的输出旨在实用可实施,为全球政策制定者提供他们在管辖范围内增强生成式AI治理所需的工具。通过本文,我们AI 治理联盟 : 简报系列我们在2024年1月推出的项目,以及我们的活动和社区会议,旨在在人工智能普及教育和知识传播方面产生实际影响。 在过去一年中,人工智能治理联盟团结了行业、政府与民间组织及学术界,建立了全球多利益相关方的努力,以确保人工智能服务于更大的公共利益,同时保持责任、包容性和问责制。我们能够成为政策制定者的重要咨询平台,他们正在应对构建人工智能监管框架的挑战,并召集人工智能价值链上的所有参与者,共同就新兴的人工智能发展问题开展有意义的对话。 鉴于该技术所处的国际环境,我们倡导采取协调一致的方法来治理生成式AI,以促进合作与互操作性。这种做法对于应对生成式AI带来的全球挑战至关重要,并确保其利益能够公平分享,尤其是对于那些有望从其负责任部署中受益匪浅的低资源经济体。 借助埃森哲作为知识合作伙伴,联盟的韧性治理与监管工作组(由超过110名成员组成)为塑造全球监管环境的共同理解做出了贡献。该工作组致力于建立一个全面的治理体系,以规范未来长期的生成式AI使用。 我们邀请政策制定者、行业领袖、学术界人士以及民间社会加入我们的努力。共同努力,我们可以塑造一个未来,在这个未来中,生成式AI能够积极地为我们的世界做出贡献,并确保所有人享有繁荣、包容和可持续的未来。 执行摘要 政府应解决监管缺口,多方面 Stakeholders 参与人工智能治理,并为未来生成式人工智能的风险做好准备。 生成式人工智能的迅速发展和广泛应用促使政府加快步伐并为未来的进展和影响做好准备。政策制定者正在考虑如何在公共利益的范围内利用生成性人工智能,平衡经济和社会机遇的同时减轻风险。为了实现这一目标,本文提供了全面的:360 ° 治理框架 –独特的每个解决利益相关者群体在为全社会生成 AI 治理做出贡献方面的挑战 - 培养多方利益相关者并鼓励知识共享跨学科思维 –通过采用负责任的以 AI 实践为例 : 使用现有法规和利用生成 AI 引入的解决差距。 国家促进人工智能创新和负责任实践的策略有效性取决于及时评估可用的监管杠杆以应对该技术带来的独特挑战和机遇。在制定新的AI法规或授权之前,政府应: 生成式AI的能力正在与其他技术同步发展。政府需要制定考虑有限资源和全球不确定性、并具备前瞻性机制以适应技术进步和新兴风险的国家策略。这需要采取以下关键行动:敏捷性进入生成式人工智能治理 , 培养国际合作。 –对于紧张局势评估现有法规,并协调由生成式AI引起的规定空白与多种监管工具之间的政策目标。 –为 AI 提升技能有针对性的投资和政府招聘 –通过 澄清责任分配法律和监管先例 , 并在发现差距的地方补充努力 –的生成式horizon 扫描AI创新及其新兴能力相关的可预见风险,与其他技术的融合以及与人类的交互。 – 评估现有监管机构应对生成式AI挑战的能力,并考虑将权力集中到专门机构时的权衡问题。 –为准备远见行使多种可能的未来 : 培养整个社会Build present - 影响评估和敏捷的下游准备现有法规的法规效应和未来的人工智能发展 2 生成式人工智能治理和跨部门知识共享。 政府政策制定者和监管机构无法独立确保生成式人工智能的韧性和治理——还需要来自各行各业、民间社会和学术界的其他利益相关方的参与。政府必须使用更广泛的治理工具,而不仅仅是规章制度,以: –要对齐国际合作标准和风险分类法,以促进 知识和基础设施的共享。 Introduction 需要一个360度框架来实现稳健的生成式AI治理,平衡不同司法管辖区内的创新与风险。 随着组织和个人考虑如何最好地采纳生成性人工智能(AI),新的强大功能持续涌现。对于一些人来说,人类与生成性AI共存的未来充满了希望,而对于另一些人来说,则充满了担忧。确实,在各个行业和领域中,生成性AI既带来了机遇也带来了风险。例如——生成性AI是否会通过改进个性化治疗方案来提升患者的健康结果,或者是否会引发新的生物安全风险?新闻业是否会因新故事讲述工具而得到民主化,还是会促进虚假信息的传播? 更大的公平性并促进可持续实践。当前作出的治理决策将影响现世和后代的生活,以及(以及)这项技术是否惠及社会、哪些群体会被落下。 响应生成式AI行业持续增长及其在全球范围内应用的快速采纳,本文概述了如何构建 resilient(请提供具体词汇以保持原意,例如“ resilient supply chains”或“ resilient business models”)。360°框架治理,在开发阶段到实际应用阶段促进AI创新的同时减轻风险。该框架旨在支持政策制定者和监管机构构建全面且持久的生成型AI治理体系。然而,框架的具体实施将在不同司法管辖区之间有所不同,这取决于国家AI战略、AI网络的成熟度、经济和地缘政治背景、个人预期以及社会规范。 生成性AI没有单一确定的未来。相反,社会如何适应这项技术将取决于人类在研究、开发、部署和利用其能力时所做的决策。政策制定者通过有效的治理,可以助力确保生成性AI促进经济机会和平等的利益分配,保护人权,并推动社会进步。 and利用现有法规解决由生成 AI 引起的差距。 鼓励全社会生成和跨部门人工智能治理知识共享。 将准备和敏捷性纳入生成式 AI 治理, 促进国际合作。 线束过去 支柱 1 有必要在现有监管环境方面获得更大的清晰度和确定性,以应对新兴的生成式AI挑战和机遇。 在评估生成式AI供应链各参与方的责任分配和评估有能力的监管机构的有效性和能力时,此类评估必须尊重已在国际人权法中明确规定的基本权利和自由,例如特定群体(例如少数群体权利)的保护。1儿童权利2) 以及特定领域的法律文书 (例如 , 针对网络犯罪3和气候变化4).5 成功实施国家策略以负责任和可信赖的方式治理生成型AI需要及时评估现有的监管能力——以及其他治理工具——以应对该技术带来的独特机遇和风险。这包括审查现有法律手段、法律法规的充分性,解决监管紧张关系和空白,明确相关法规等。 1.1 检查由生成 AI 属性复杂的现有法规 随着数字化程度的不断提高和个人及职业数据 monetization趋势的增长,隐私保护既至关重要又极为复杂。政策制定者正致力于优先考虑隐私保护的相关考虑。 尽管生成式AI正在出现的新特性和能力可能需要制定新的法规,政策制定者和监管机构首先应该审查其管辖范围内现有的法规,以应对新挑战。他们还应确定现有法规可以在哪些方面得到应用、调整或放弃,以促进国家AI战略的目标。理解和导航生成式AI与现有法规的互动需要对受影响法规的技术方面及其法律原则有深入的理解。表1讨论了在生成式AI背景下如何使监管工具变得复杂的情况。 输入数据、收集和处理数据的合法基础缺乏透明度、模型推断个人数据的能力以及模型记忆并披露训练数据部分的可能性。随着数字化程度的不断提高和个人及职业数据商业化趋势的增长,隐私保护既至关重要又极具挑战性。 政策制定者致力于优先考虑适用于数字数据的隐私保护考虑因素,同时创造数据聚合的可能性,这可能促成AI推动的重大突破。7这样的功能可以用于促进农业、健康和教育等领域公共产品的创新,或在数据联盟等特定例外情况下用于促进AI模型的训练以实现公共政策目标。8另一个新兴问题是政策制定者确保生成式AI的安全性和安全性,即使这可能涉及个人数据的交互,例如在调查和应对严重事件时。这可以通过创建监管豁免和限制来解决,以确保隐私并促进负责任的人工智能结果。 隐私和数据保护 生成式AI模型因依赖大量训练数据、强大的推理能力以及易受独特敌对攻击的影响而放大了隐私、安全和信任风险。6包含个人、敏感和机密信息在内的训练数据集和用户中出现一系列风险。 版权和知识产权 使用生成性人工智能创建“深度假信息”。对人工智能训练的全面规定尚不确定,法官可能会根据产品的特性或输出数据与训练数据的频率和相似程度,来判断某些数据使用方式的公平性。9展望未来,亟需对监管框架进行全面审查,并就如何在内容生成过程中记录人类创造力以主张知识产权保护提供必要的指导。 生成式AI引发了若干与版权侵权、抄袭以及知识产权(IP)所有权相关的问题(参见焦点问题1),目前这些问题正在各个司法辖区的法院进行审议。与保护个人肖像、声音及其他个人特征相关的权利也受到了影响。 在受版权保护的数据上训练生成式 AI 系统 , 以及与文本和数据挖掘异常 ISSUE SPOTLIGHT 1 文本和数据挖掘(TDM)是指通过自动化过程数字化复制和分析大量数据与信息以识别模式并发现研究见解的过程。世界各地的多个司法管辖区——如日本、新加坡、爱沙尼亚、瑞士和欧盟(EU)——在其版权法中引入了特定豁免,以允许从受版权保护的内容中提取TDM,从而促进创新、推动科学发展并创造商业价值。 支持创新的 AI 议程。10最终 , 政府面临越来越大的压力 , 要求他们最终解决版权紧张的问题。11 许可和数据访问权限将在“选择加入”或“选择退出”的基础上进行考虑,以解决TDMA问题,此外还将考虑一系列技术和标准,旨在将控制权交给创作者,使他们能够从模型训练中退出。12许可证支持者认为,在未经创作者许可的情况下采集用于生成AI训练的数据构成非法复制,并且是一种减少竞争的形式。13然而,人工智能开发者认为,要求使用内容进行训练时向版权拥有者支付费用将限制模型开发,负面影响风险资本(VC)融资,并减少生成式AI模型之间的竞争。14虽然这些努力无法完全消除知识产权法律的担忧,但它们可以有助于制定生成性AI基础模型提供商应遵守的标准。 鉴于生成式AI系统用于训练和生成新内容的数据量庞大,各国应确立关于TDM(海量数据处理)在生成式AI训练目的下的监管清晰度。这可以通过确认AI开发是否构成“公平使用”或“合理使用”(这是对抗版权侵权