AI智能总结
2024 年 1 月 前言 Paul Daugherty 埃森哲首席技术和创新官 (CTIO) Jeremy Jurgens 世界经济论坛董事总经理 Cathy LiAI 、数据和 Metaverse 负责人 ; 世界经济论坛执行委员会成员 John Granger IBM 咨询公司高级副总裁 我们的世界正经历一个多方面转型的阶段,其中技术创新扮演着主导角色。自20世纪中叶以来,人工智能(AI)经历了重要的里程碑,最近生成式AI的发展更是标志着这一变革的突破。生成式AI具备创造、分析和创新的广泛能力,预示着一场范式的转变,正在重塑从医疗保健到娱乐等各个行业。 负责任的应用与转型,以及 resilient 的治理和监管。这些支柱强调了全面的端到端方法,以应对关键的人工智能治理挑战和机遇。 联盟是一项全球性努力,汇聚了多元的观点和利益相关者,这使得能够进行深入的辩论、创意构思和实施策略,以推动具有重要意义的长期解决方案。联盟还推进了关于访问和包容性的关键视角,推动努力提高对关键资源(如学习、技能、数据、模型和计算能力)的获取。这项工作包括考虑如何公平地分配这些资源,特别是在未得到充分服务的地区和社区中。最关键的是,必须确保通常不参与人工智能治理对话的利益相关方也能参与其中,以确保所有声音都能被纳入。通过这样做,人工智能治理联盟提供了一个让所有利益相关方参与的平台。 随着人工智能新能力的提升和进一步推动创新,它正以前所未有的速度在全球范围内重塑经济和社会。人工智能带来的经济潜力和机遇伴随着巨大的社会责任。各国和各行业领袖必须携手合作,确保其在伦理和负责任的前提下进行开发、部署和应用。 世界经济论坛的人工智能治理联盟(AIGA)是一个开创性的合作努力,汇集了行业领导者、政府、学术机构和民间社会组织。该联盟代表了一个共同承诺,即在整个AI价值链(从开发到应用和治理)的每个阶段都秉持负责任的AI发展和创新,同时维护伦理考虑。该联盟由世界经济论坛牵头,并与IBM咨询和埃森哲作为知识合作伙伴共同推动,包含三个核心工作流——安全系统和技术。 在导航AI治理动态且不断演变的环境时,AI治理联盟的见解旨在为负责任的开发、采用和整体治理生成型AI提供有价值的指导。我们鼓励来自世界各地的决策者、行业领导者、政策制定者和思想家积极参与我们的共同努力,以塑造一个符合共同人类价值观并促进包容性社会进步的AI驱动未来。 简介系列论文简介 AI治理联盟于2023年6月成立,旨在提供有关人工智能系统负责任的设计、开发和部署的指导。自成立以来,来自六大洲200多个组织的超过250名成员加入了该联盟。该联盟由管理委员会以及三个工作小组组成。 企业转型以促进各行业和领域负责任的生成式AI采纳。这包括评估生成式AI应用场景,以创造新的或增量的价值,并理解其对价值链条和商业模式的影响,在评估采纳考虑因素及其下游效应的同时。 弹性治理与监管 包括来自 工作小组,在与Accenture合作领导下,专注于分析人工智能治理landscape,促进国际间合作以推动监管互操作性的机制,以及推广人工智能领域的公平性、包容性和全球访问。 steering委员会指导联盟及其工作组的整体方向,并与公共和私营部门以及学术界合作。 工作 安全系统和技术小组,在IBM咨询公司的合作领导下,专注于在开发阶段确立必要的保障措施以达成共识,研究基础模型的技术维度,包括护栏和模型及应用的责任发布。在整个AI生命周期的每个阶段定义问责制,以确保监督和有条不紊的扩展。 这份简报系列是三个工作组的第一个输出成果,并确立了人工智能治理联盟的基础关注领域。 在快速变化的时代,AI治理联盟致力于构建一个由公共、私营、民间社会和学术界可信赖的声音组成的多利益相关方社区,共同努力应对当代AI治理中最具挑战性和潜在回报性的问题。 负责任的应用程序和工作组 , 合作领导IBM Consulting 的转型 , 专注于评估 阅读指南 这个论文系列由三个简报组成,这些简报根据联盟的三个工作组进行了主题分类。 政策、原则和实践, govern 人工智能技术的道德开发、部署、使用和监管,《 resilient governance and regulation 专题简报》提供了指导。 每份简报报告也可以独立阅读。例如,对技术维度更感兴趣的开发者、采用者和政策制定者可以轻松跳转至“安全系统与技术”简报,以获得当前的人工智能领域理解。对于关注生成式AI的企业战略和商业影响的决策者而言,“负责任的应用与转型”简报提供了具体背景。而对于关注法律法规的企业领导人和政策制定者,则可以通过“法律框架”简报获取相关信息。 尽管每份简报文件都有独特的重点领域,但在这些多元相关方社区的交叉点上,许多重要的经验教训得以学习,并且每个工作组产生的共识和知识也从中产生。因此,本简报文件系列的许多收获应该在各个工作组的交叉点上进行审视,在这里,研究发现将变得叠加,并在彼此的背景下相互增强。 AI 治理联盟指导委员会 词汇表 人工智能领域的术语是一个快速发展的主题,同一个术语可能有多种含义。以下词汇表应被视为当前定义的一个快照。 错误信息涉及misinformation: 传播不正确事实,其中个体可能 无意中分享或相信虚假信息而无意误导他人。 misinformation 涉及故意且有目的地传播虚假信息以误导他人。4 基于机器的 人工智能系统:一种根据明确或隐含的目标,从接收到的输入中推断出如何生成预测、内容、建议或决策以影响物理或虚拟环境的系统。不同的人工智能系统在部署后在自主性和适应性方面存在差异。1 : 定期的行为 模型漂移监控,通过比较模型指标以确保在数据变化、 adversarial 输入、噪声和外部因素影响下仍能保持性能。 可调参数 模型超参数:必须调整以获得最佳性能的模型参数(与基于训练集定义的固定参数相对)。 : 识别和分析的 AI 模型因果AI通过数据中的因果关系进行推理,从而基 于这些关系进行预测和决策。因果推断模型提供了负责任的AI益处,包括可解释性和通过公平性的形式化减少偏差,以及为模型推理和输出提供上下文化。因果AI与生成AI模型的交集和探索是一个新的研究领域。 AI 技术能够多模态AI:处理和解释多种类型的数据(如 文本、图像、音频、视频),可能同时进行。它结合了各种领域(自然语言处理、计算机视觉、音频处理)的技术,以实现更为全面的分析和洞察。 适应预先训练的过程fine-tuning: 模型通过进行额外训练并更新现有参 数以执行特定任务。 : 设计过程 提示工程自然语言提示语言模型执行特定任务。 一种技术在 基础模型是一个 检索增强生成:通过从外部来源获取知识来增强大型语言模型以生成文本。在检索步骤中,根据用户查询识别来自外部源的相关文档。在生成步骤中,将这些文档的部分内容包含在模型提示中,以生成基于检索到的文档的响应。 基础模型:可以适应广泛下游任务的AI模型。基础模型通常是大规模(例如,包含数十亿参数)的生成模型,基于大量数据集进行训练,涵盖有标签和无标签数据集。 这个术语通常是指 前沿模型:AI技术中最先进或最前沿的模型。前沿模型代表了最新的发展,并且往往具有更高的复杂性、更强的能力和优于之前模型的性能。 一个高效 , 低 参数高效微调:一种成本较低的方法,可以在无需重新训练模型或更新其权重的情况下,将预训练模型适应新任务。这种方法涉及学习一小批新的参数,并将其附加到模型的提示中,同时冻结模型现有的参数(也称为提示微调)。 : AI 模型专门用于 生成型AI将新的数字材料作为输出(例如文本、图像、音频、视频和软件代码),这不仅包括使用这些AI模型的应用程序及其用户界面时产生的内容,还涵盖了模型本身。这些系统通常构建为经过大量数据训练的机器学习系统。2 : 一种模拟攻击的方法 AI 红队 一支被授权并组织起来的团队,旨在识别潜在的弱点、漏洞以及改进的空间。该团队应贯穿模型设计、开发、部署和应用的整个过程。红队的目标是通过展示成功攻击的影响以及在运营环境中展示防御者有效的措施来提高安全性和稳健性。 : 幻觉发生时幻觉模型生成事实不准确或虚假的信息。通常, 生成的输出呈现得合理或具有说服力,使得最终用户难以检测。 来自人类反馈的强化学习 : 一种改进模型的方法基于RLHF的人类评估者根据安全性、相关性和连贯性对模型生成的输出进行排序,并根据此反馈更新模型以全面提升性能。 能力jurisdictional互操作性:在不同政策和监 管要求所管辖的不同司法管辖区进行运作并跨域运作。3 评估以确保价值能够被实现,并且变革管理能够与定义的目标在负责任的框架下成功对齐。 - 覆盖不同的梯度 释放授予的访问权限级别。5 –基础模型和 完全封闭:其组件(如权重、数据和文档)不对外部用户或组织内的子部门释放。通常同一组织负责模型创建和下游模型适应。外部用户可能通过应用程序与该模型进行交互。 开发的 AI 和 负责任的人工智能:以最大化其对人类、社会和环境的利益并最小化其带来的风险的方式进行部署。它通常由各种原则和组织描述,包括但不限于稳健性、透明度、可解释性、公平性和公正性。6 –创建者提供对 组织 负责任的转型:致力于把握生成式AI带来的机遇和利益,同时减轻对个人、组织和社会的风险。负责任的转型是组织在治理、运营、人才和沟通方面进行的战略协调与变革。 托管:通过在其基础设施上部署基础模型,允许通过用户界面进行内部和外部交互,并发布特定模型细节。 – 应用程序编程接口(API):创建者通过在其基础设施上托管基础模型并允许适配器通过API进行交互以执行指定任务并释放特定模型细节来提供访问权限。 : 确定原始来源和生成的输出的可追溯性事实。 : 披露细节 (决定 ,在文档中关于数据源、数据和模型的选择与处理过程中的透明度选择,以促进模型选择的知情决策和理解。 –创作者提供了一种方式可下载:可在适配器的基础架构上运行基础模型的同时,保留其部分组件,如训练数据。 : 限制的过程模型使用限制在预期用途/案例之外的模型使用以 避免模型产生的意外后果。 –创建者发布所有模型完全开放 : 组件 , 包括所有参数、权重、模型架构、训练代码、数据和文档。 : 嵌入信息的行为将水印嵌入由AI生成的输出(例如图像、视频、音 频、文本)中,以验证输出的真实性、来源的身份和/或特征、修改情况和/或传输方式。7 个人的收养负责任的采用:组织在负责任人工智能框架内的 应用场景和机遇。这需要 thorough(彻底的、详尽的) 尾注 1. “经合组织人工智能原则概述 ” , 经济合作与发展组织 (经合组织) 人工智能政策观察站 , 2023 年 ,https: / / oecd. ai / en / ai - principles. 2. OECD , G7 广岛生成人工智能(AI) 进程 , 迈向 G7 对生成人工智能的共同理解 , 2023 年 ,https:/ / www. oecd. org / publications / g7 - 广岛 - process - on - generative - artific - intelligence - ai - bf3c0c60 - en. htm. 3. 世界经济论坛 , Metaverse 中的互操作性 , 2023 年 ,https: / / www. weforum. org / publications / 互操作性 - in - the - metaverse /. 4. 世界经济论坛 , 数字安全设计干预和创新工具包 : 在线危害的类型学 , 2023 年 ,https://www.weforum.org/publications/数字安全设计干预及创新类型学——在线危害工具-kit。 5. Solaiman , Irene