您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[英国上议院&通信和数字委员会]:2024 年大型语文模型和生成式 AI 报 ( 汉 ) - 发现报告
当前位置:首页/行业研究/报告详情/

2024 年大型语文模型和生成式 AI 报 ( 汉 )

2024 年大型语文模型和生成式 AI 报 ( 汉 )

HOUSE OF LORDS通信和数字委员会第 1 次会议报告 2023 - 24大型语言模型和生成 AI订购于 2024 年 1 月 29 日印刷 , 2024 年 2 月 2 日出版由上议院管理局发布HL 纸张 54 通信和数字委员会通信和数字委员会由上议院在每届会议上任命 , 以 “审议媒体 , 数字和创意产业 , 并强调议会和公众关注的领域 ” 。成员通信和数字委员会的成员是 :费瑟斯通男爵夫人Kamall 勋爵巴斯的福斯特勋爵利兹主教Craigmaddie 的弗雷泽男爵夫人利普西勋爵布里港的格里菲斯勋爵比斯顿的斯托威尔男爵夫人 (主席)伯肯黑德勋爵大厅惠克罗夫特男爵夫人温斯科姆的哈丁男爵夫人Primrose Hill 的 Norwood Green Baroness Healy利益声明见附录 1 。会员利益的完整清单可在上议院利益登记册中找到 : http: / / www. parliament. uk / mps - 领主 - 和 - 办公室 / 标准 - 和 - 利益 / 领主利益登记册 -出版物委员会的所有出版物均可在以下网址获得 :https: / / committees. parliament. uk / committee / 170 / communications - and - digital - committee / publications /议会直播委员会会议的辩论和公开会议的现场报道可在以下网址获得 : http: / / www. parliamentlive. tv更多信息有关上议院及其委员会的更多信息 , 包括对证人的指导 , 当前查询的详细信息以及即将举行的会议 , 请访问 : http: / / www. parliament. uk / business / lorers委员会工作人员从事此调查的工作人员是 Daniel Schlappa ( 职员 ) , David Stoker ( 政策分析师 ) Emily Bailey - Page ( 政策分析师 ) 和 Rita Cohen ( 委员会运营官 ) 。联系方式所有信件均应寄往伦敦上议院委员会办公室通信和数字委员会 SW1A 0PW 。电话 020 7219 2922 。电子邮件: holcommunications @ parliament. ukX ( 以前称为 Twitter )您可以通过以下网址关注委员会 : @ LordsCommsCom 。 CONTENTSPage图 4 : 模型开发中的垂直集成水平和部署 13图 6 : 技术对创造就业的影响 25图 7 : 按领域划分的劳动力对自动化的敞口 25图 8 : 构建著名 AI 的研究团队的隶属关系系统 32威胁模型 38缓解措施 42缓解措施 44偏见和歧视 48数据保护 49 技术复杂性 68审查政府的立场 69更好的许可选项 71主张权利的新权力 71证据在 https: / / committes. parliament. uk / 上在线发布工作 / 7827 / 大型语言模型 / 出版物 / 并可在议会档案馆查阅 (020 7219 3074) 。脚注中的 Q 是指口头证据中的问题。 大语言模型与遗传 AI3执行摘要世界面临 AI 的拐点。大型语言模型 ( LLM ) 将引入与互联网发明相当的划时代变化。一场数十亿英镑的竞赛正在统治这个市场。胜利者将发挥前所未有的力量来塑造世界各地的商业惯例和获取信息。我们的调查研究了未来三年的趋势,并确定了优先行动,以确保这项新技术使人们,我们的经济和社会受益。我们对这项新技术持乐观态度 , 它可以带来巨大的经济回报 , 推动突破性的科学进步。获取收益将需要解决风险。许多都是强大的 , 包括对公共安全 , 社会价值 , 开放市场竞争和英国经济竞争力的可信威胁。因此 , 需要采取有远见、细致和迅速的行动 , 以负责任地促进创新 , 并按比例减轻风险。我们在这方面发现了政府优先事项、政策一致性和交付速度方面的改进空间。我们支持政府的整体方法,并欢迎其成功地将英国定位为世界 AI 领导者。应该祝贺这一广泛的努力。但政府最近过于偏重于对高风险 AI 安全的狭隘关注。就其本身而言,这将无法提供塑造国际规范所需的更广泛的能力和商业影响力。如果不更加关注支持商业机会和学术卓越,英国就不能指望与国际竞争对手保持同步。因此,需要重新平衡,包括对机会有更积极的看法,并更加谨慎地关注近期风险。政府和监管机构必须通过优先考虑公开竞争和透明度来防范这些结果。我们对政府致力于围绕版权进行公平竞争的承诺更加担忧。一些科技公司未经许可使用受版权保护的材料,获得了巨大的经济回报。这样做的合法性很复杂,但原则仍然很明确。版权的目的是奖励创作者的努力,防止他人未经许可使用作品,并激励创新。目前的法律框架未能确保这些结果的发生,政府有责任采取行动。在接下来的十年中,它不能袖手旁观,希望法院能提供答案。有一个短暂的窗口来引导英国走向积极的结果。我们建议如下 :•快速准备: 英国必须为一段旷日持久的国际竞争和技术动荡做好准备 , 因为它试图利用法学硕士提供的机会。•防范监管捕获: 开放和封闭模式开发商之间正在出现一场重大竞赛。每个人都在寻求有益的监管框架。政府必须 4大语言模型与遗传 AI使市场竞争成为明确的 AI 政策目标。它还必须在科学 , 创新和技术部 ( DSIT ) 和 AI 安全研究所引入增强的治理和透明度措施 , 以防止监管捕获。•谨慎对待公开和封闭的论点: 开放式模型提供了更大的访问和竞争 , 但引起了人们对危险能力无法控制的扩散的担忧。关闭models offer more control but also more risk of concentration power. A nuanced approach is needed. The Government must review the security implications at pace while ensuring that any new rules supports rather than sinfle market competition.•向机会的再平衡战略: 政府的重点已经过分偏向于对 AI 安全的狭隘看法。它必须重新平衡 , 否则它将无法利用这些机会从 LLM , 落后于国际竞争对手 , 并在战略上依赖海外科技公司的关键技术。•提升机会: 我们呼吁采取一系列措施 , 以提高计算能力和基础设施 , 技能以及对学术分拆的支持。政府还应探索和开发主权 LLM 能力的可行性 , 建立在最高的安全和道德标准。•支持版权: 政府应优先考虑公平和负责任的创新。它必须最终解决争端 ( 包括通过必要时更新的立法 ) ; 授权权利持有人检查他们的数据是否被未经许可使用 ; 并投资于大型、高质量的培训数据集 , 以鼓励科技公司使用许可的材料。•解决眼前的风险: LLM 中最直接的安全风险源于使现有的恶意活动更容易 , 更便宜 , 这些对公共安全和财务构成了可信的威胁安全。在网络安全、反恐、儿童性虐待材料和虚假信息方面需要更快的缓解措施。需要更好的评估和保护措施来解决歧视、偏见和数据保护带来的社会危害。•审查灾难性风险: 灾难性风险 (超过 1000 例英国死亡和数百亿美元的经济损失) 在三年内不太可能出现 , 但不能排除 , 特别是作为下一代能力上线。但是,没有商定的灾难性风险警告指标。没有理由恐慌,但这个智力盲点需要立即关注。还需要对高风险高影响模型进行强制性安全测试 : 依靠少数公司的自愿承诺将是幼稚的,使政府无法应对突然出现的危险能力。对生存风险 ( 对人类生命构成全球威胁 ) 的更广泛担忧被夸大了,绝不能分散政策制定者对更紧迫优先事项的注意力。 大语言模型与遗传 AI5••Empower 调节器: 政府依靠部门监管机构来实现白皮书的目标 , 但速度太慢 , 无法为他们提供工具。需要为政府领导的中央支持团队提供更快的资源 , 以及一些监管机构的调查和制裁权力 , 跨部门准则以及对责任的法律审查。按比例调节: 英国应该在人工智能监管方面走出自己的道路,向美国、欧盟和中国学习,但不要复制。这样做,英国可以保持战略灵活性,并为世界树立榜样 - 尽管它需要首先奠定基础。当务之急是及时制定认可的标准和通用审计方法,以确保负责任的创新,支持业务采用,并实现有意义的监管监督。 大型语言模型和生成 AICHAPTER 1: THE GOLDILOCKS PROBLEM我们的调查1.世界正面临人工智能 ( AI ) 方法的转折点。大型语言模型 ( LLM ) 的快速发展引起了人们对技术和社会未来的广泛讨论。一些人认为这些发展被夸大了。其他人则担心我们正在制造的机器有一天会远远超过我们的理解 , 并最终超过我们的控制。2.我们发起了这项调查,以检查未来三年 LLM 的可能轨迹以及确保英国能够及时应对机遇和风险所需的行动。我们将 LLM 作为与生成 AI 相关的问题的相对包含的案例研究。我们专注于这项技术的不同之处,并试图以人工智能为基础,而不是回顾大量的文献。13.我们从 41 名专家证人那里获得了证据 , 审查了 900 多页的书面证据 , 与软件公司 Intuit 主办的中小型企业举行了圆桌会议 , 并访问了 Google 和 UCL Business 。2我们得到了我们的专家顾问 Michael Wooldridge 教授 , 牛津大学计算机科学教授的协助。我们感谢所有参与我们调查的人。挑战4.大型语言模型可能会引入一些划时代的变化。在未来三年内,超越当今最先进模型的能力飞跃是可能的。具有越来越先进功能的公开可用模型极有可能激增。在正确的人手中,LLM 可能会推动生产力的大幅提升,并提供突破性的科学见解。在错误的人手中,它们使恶意活动变得更容易,并可能为定性的新风险奠定基础。35.主导 LLM 市场的企业将拥有前所未有的权力来塑造对全球信息和商业惯例的访问。目前 , 美国科技公司引领这一领域 , 尽管这可能不会永远适用。英国与盟友和合作伙伴一道 , 必须仔细考虑将商业优势让给不共享我们的国家的影响1例如,请参阅人工智能委员会,英国的人工智能 : 准备,愿意和有能力 ? ( 2017 - 19 届会议报告,HL 论文 100 ),科学,创新和技术委员会,人工智能的治理 : 中期报告 ( 第九次报告,2022 - 23 届会议,HC 1769 ),DSIT,“Frotier AI ” ( 2023 年 10 月 25 日 ) : https : / / www 。政府。英国 / 政府 / 出版物 / 前沿人工智能能力和风险讨论文件 [2024 年 1 月 8 日访问] 和数字、文化、媒体和体育部,国家人工智能战略,CP 525 ( 2021 年 9 月 ) : https: / / 资产。出版。服务。政府。英国 / 媒体 / 614db4d1e90e077a2cbdf3c4 / Natioal _ AI _ Strategy __ PDF _ versio.pdf [2024 年 1 月 25 日访问] 。2见附录 4 。3问题 3 ( Jean Innes 博士和 Ian Hogarth ) , 来自艾伦图灵研究所 ( LLM0081 ) 和 DSIT ( LLM0079 ) 的书面证据 8大语言模型与遗传 AI值。4我们相信 , 有强有力的国内外政策论据支持 ( 而不是扼杀 ) 负责任的创新 , 以使消费者受益并维护我们的社会价值观。56.前沿 AI 的革命将在政府之外发生。但是,构建和发布模型所涉及的工作将在特定的地区进行 - 尤其是因为开发人员需要获得能源,计算和消费者。因此,各国政府和监管机构将在决定允许什么样的公司蓬勃发展方面发挥核心作用。最成功的人将拥有广泛的力量。剑桥大学 De