您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[英国上议院&通信和数字委员会]:2024 年大型语文模型和生成式 AI 报 ( 汉 ) - 发现报告

2024 年大型语文模型和生成式 AI 报 ( 汉 )

AI智能总结
查看更多
2024 年大型语文模型和生成式 AI 报 ( 汉 )

通信和数字委员会第1次会议报告2023 - 24 大型语言模型和生成AI 订购于2024年1月29日印刷,2024年2月2日出版 HL纸张54 通信和数字委员会 通信和数字委员会由上议院在每届会议上任命,以“审议媒体,数字和创意产业,并强调议会和公众关注的领域”。 成员 通信和数字委员会的成员是: Kamall勋爵利兹主教利普西勋爵比斯顿的斯托威尔男爵夫人(主席)惠克罗夫特男爵夫人Primrose Hill的Norwood Green 费瑟斯通男爵夫人巴斯的福斯特勋爵Craigmaddie的弗雷泽男爵夫人布里港的格里菲斯勋爵伯肯黑德勋爵大厅温斯科姆的哈丁男爵夫人Baroness Healy 利益声明 见附录1。 会员利益的完整清单可在上议院利益登记册中找到:http: / / www. parliament. uk / mps -领主-和-办公室/标准-和-利益/领主利益登记册- 出版物 委员会的所有出版物均可在以下网址获得:https://committees.parliament.uk/committee/170/communications-and-digital-committee/publications/ 议会直播 委员会会议的辩论和公开会议的现场报道可在以下网址获得:http: / / www. parliamentlive. tv 更多信息 有关上议院及其委员会的更多信息,包括对证人的指导,当前查询的详细信息以及即将举行的会议,请访问:http: / / www. parliament. uk / business / lorers 委员会工作人员 从事此调查的工作人员是Daniel Schlappa(职员),David Stoker(政策分析师)Emily Bailey - Page(政策分析师)和Rita Cohen(委员会运营官)。 联系方式 所有信件均应寄往伦敦上议院委员会办公室通信和数字委员会SW1A0PW。电话02072192922。电子邮件: holcommunications @ parliament. uk X(以前称为Twitter)您可以通过以下网址关注委员会:@LordsCommsCom。 图4:模型开发中的垂直集成水平和部署13 图6:技术对创造就业的影响25图7:按领域划分的劳动力对自动化的敞口25 图8:构建著名AI的研究团队的隶属关系系统32 偏见和歧视48数据保护49 技术复杂性68审查政府的立场69 更好的许可选项71主张权利的新权力71 证据在https://committes.parliament.uk/上在线发布工作/7827/大型语言模型/出版物/并可在议会档案馆查阅(02072193074)。 脚注中的Q是指口头证据中的问题。 执行摘要 世界面临AI的拐点。大型语言模型(LLM)将引入与互联网发明相当的划时代变化。一场数十亿英镑的竞赛正在统治这个市场。胜利者将发挥前所未有的力量来塑造世界各地的商业惯例和获取信息。我们的调查研究了未来三年的趋势,并确定了优先行动,以确保这项新技术使人们,我们的经济和社会受益。 我们对这项新技术持乐观态度,它可以带来巨大的经济回报,推动突破性的科学进步。 获取收益将需要解决风险。许多都是强大的,包括对公共安全,社会价值,开放市场竞争和英国经济竞争力的可信威胁。 因此,需要采取有远见、细致和迅速的行动,以负责任地促进创新,并按比例减轻风险。我们在这方面发现了政府优先事项、政策一致性和交付速度方面的改进空间。 我们支持政府的整体方法,并欢迎其成功地将英国定位为世界AI领导者。应该祝贺这一广泛的努力。但政府最近过于偏重于对高风险AI安全的狭隘关注。就其本身而言,这将无法提供塑造国际规范所需的更广泛的能力和商业影响力。如果不更加关注支持商业机会和学术卓越,英国就不能指望与国际竞争对手保持同步。因此,需要重新平衡,包括对机会有更积极的看法,并更加谨慎地关注近期风险。 政府和监管机构必须通过优先考虑公开竞争和透明度来防范这些结果。 我们对政府致力于围绕版权进行公平竞争的承诺更加担忧。一些科技公司未经许可使用受版权保护的材料,获得了巨大的经济回报。这样做的合法性很复杂,但原则仍然很明确。版权的目的是奖励创作者的努力,防止他人未经许可使用作品,并激励创新。目前的法律框架未能确保这些结果的发生,政府有责任采取行动。在接下来的十年中,它不能袖手旁观,希望法院能提供答案。 有一个短暂的窗口来引导英国走向积极的结果。我们建议如下: •快速准备:英国必须为一段旷日持久的国际竞争和技术动荡做好准备,因为它试图利用法学硕士提供的机会。•防范监管捕获:开放和封闭模式开发商之间正在出现一场重大竞赛。每个人都在寻求有益的监管框架。政府必须 使市场竞争成为明确的AI政策目标。它还必须在科学,创新和技术部(DSIT)和AI安全研究所引入增强的治理和透明度措施,以防止监管捕获。 •谨慎对待公开和封闭的论点:开放式模型提供了更大的访问和竞争,但引起了人们对危险能力无法控制的扩散的担忧。关闭models offer more control but also more risk of concentration power. Anuanced approach is needed. The Government must review the securityimplications at pace while ensuring that any new rules supports rather thansinfle market competition. •向机会的再平衡战略:政府的重点已经过分偏向于对AI安全的狭隘看法。它必须重新平衡,否则它将无法利用这些机会从LLM,落后于国际竞争对手,并在战略上依赖海外科技公司的关键技术。 提升机会:我们呼吁采取一系列措施,以提高计算能力和基础设施,技能以及对学术分拆的支持。政府还应探索和开发主权LLM能力的可行性,建立在最高的安全和道德标准。 支持版权:政府应优先考虑公平和负责任的创新。它必须最终解决争端(包括通过必要时更新的立法);授权权利持有人检查他们的数据是否被未经许可使用;并投资于大型、高质量的培训数据集,以鼓励科技公司使用许可的材料。 •解决眼前的风险:LLM中最直接的安全风险源于使现有的恶意活动更容易,更便宜,这些对公共安全和财务构成了可信的威胁安全。在网络安全、反恐、儿童性虐待材料和虚假信息方面需要更快的缓解措施。需要更好的评估和保护措施来解决歧视、偏见和数据保护带来的社会危害。 •审查灾难性风险:灾难性风险(超过1000例英国死亡和数百亿美元的经济损失)在三年内不太可能出现,但不能排除,特别是作为下一代能力上线。但是,没有商定的灾难性风险警告指标。没有理由恐慌,但这个智力盲点需要立即关注。还需要对高风险高影响模型进行强制性安全测试:依靠少数公司的自愿承诺将是幼稚的,使政府无法应对突然出现的危险能力。对生存风险(对人类生命构成全球威胁)的更广泛担忧被夸大了,绝不能分散政策制定者对更紧迫优先事项的注意力。 •Empower调节器:政府依靠部门监管机构来实现白皮书的目标,但速度太慢,无法为他们提供工具。需要为政府领导的中央支持团队提供更快的资源,以及一些监管机构的调查和制裁权力,跨部门准则以及对责任的法律审查。 按比例调节:英国应该在人工智能监管方面走出自己的道路,向美国、欧盟和中国学习,但不要复制。这样做,英国可以保持战略灵活性,并为世界树立榜样-尽管它需要首先奠定基础。当务之急是及时制定认可的标准和通用审计方法,以确保负责任的创新,支持业务采用,并实现有意义的监管监督。 大型语言模型和生成AI CHAPTER1:THEGOLDILOCKSPROBLEM 我们的调查 1.世界正面临人工智能(AI)方法的转折点。大型语言模型(LLM)的快速发展引起了人们对技术和社会未来的广泛讨论。一些人认为这些发展被夸大了。其他人则担心我们正在制造的机器有一天会远远超过我们的理解,并最终超过我们的控制。 2.我们发起了这项调查,以检查未来三年LLM的可能轨迹以及确保英国能够及时应对机遇和风险所需的行动。我们将LLM作为与生成AI相关的问题的相对包含的案例研究。我们专注于这项技术的不同之处,并试图以人工智能为基础,而不是回顾大量的文献。1 3.我们从41名专家证人那里获得了证据,审查了900多页的书面证据,与软件公司Intuit主办的中小型企业举行了圆桌会议,并访问了Google和UCLBusiness。2我们得到了我们的专家顾问Michael Wooldridge教授,牛津大学计算机科学教授的协助。我们感谢所有参与我们调查的人。 挑战 4.大型语言模型可能会引入一些划时代的变化。在未来三年内,超越当今最先进模型的能力飞跃是可能的。具有越来越先进功能的公开可用模型极有可能激增。在正确的人手中,LLM可能会推动生产力的大幅提升,并提供突破性的科学见解。在错误的人手中,它们使恶意活动变得更容易,并可能为定性的新风险奠定基础。3 5.主导LLM市场的企业将拥有前所未有的权力来塑造对全球信息和商业惯例的访问。目前,美国科技公司引领这一领域,尽管这可能不会永远适用。英国与盟友和合作伙伴一道,必须仔细考虑将商业优势让给不共享我们的国家的影响 值。4我们相信,有强有力的国内外政策论据支持(而不是扼杀)负责任的创新,以使消费者受益并维护我们的社会价值观。5 6.前沿AI的革命将在政府之外发生。但是,构建和发布模型所涉及的工作将在特定的地区进行-尤其是因为开发人员需要获得能源,计算和消费者。因此,各国政府和监管机构将在决定允许什么样的公司蓬勃发展方面发挥核心作用。最成功的人将拥有广泛的力量。剑桥大学DeepMid机器学习教授尼尔·劳伦斯教授认为,政府有一个罕见的“操纵”时刻,现在做出的决定的后果将对未来产生影响。6 7.要正确控制这种控制将很困难。技术发展超过政策反应(以及引发道德问题)是很常见的。但是基础模型的最新进展表明,这种分歧正在变得越来越严重,并将继续扩大。7这给寻求充分利用这项技术的政府带来了困难。过早干预过多,他们有可能引入类似于1865年《红旗法》的法律,该法律要求有人走在挥舞红旗的新汽车前。8这并没有很好地老化。但是,对合理的规则过于谨慎也是有害的:安全带是在1885年发明的,但直到1983年,驾驶员才被要求佩戴安全带。9 8.解决这个“金发姑娘”问题,即在创新和风险之间取得平衡,对市场发展的远见有限,将是当前一代决策者面临的决定性挑战之一。我们的报告提出了一系列建议,以帮助政府,监管机构和行业应对未来的挑战。 第2章未来趋势 9.本章阐述了大型语言模型(LLM)的功能和未来趋势。目的是总结它们的工作原理,区分炒作与现实,并为我们随后对机会,风险和监管的评估提供基础。我们不试图提供详尽的技术细节。 什么是大型语言模型? 方框1:关键术语 人工智能(AI):没有普遍接受的定义,尽管AI通常用于描述执行通常需要人类脑力的任务的机器或系统。智能手机,计算机和许多在线服务都使用AI工具。深度学习:一种用于开发AI系统的方法,涉及以人脑工作方式启发的方式处理数据。基础模型:一种人工智能,通常使用深度学习,并在大型数据集上进行训练。它的部分特点是能够适应各种任务。许多人使用Google在2017年开发的称为变压器的深度学习模型。生成式AI:与基础模型密切相关,生成式AI是一种能够创建一系列输出的AI,包括文本,图像或媒体。大型语言模型:专注于语言(书面文本)的基础模型的子集。LLM的示例包括OpenAI的GPT,Google的PaLM2和Meta的LLaMA。多模式模型:基础模型的子集,可以处理多种模式(例如图像,视频,代码)。前沿AI:一个术语,用于描述与当今最先进的功能相匹配或超过的最强大和最先进的通