您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[德莫斯研究所]:开放源代码的人工智能革命:开放源代码、人工智能和监管的辩论框架 - 发现报告

开放源代码的人工智能革命:开放源代码、人工智能和监管的辩论框架

2023-11-11-德莫斯研究所何***
AI智能总结
查看更多
开放源代码的人工智能革命:开放源代码、人工智能和监管的辩论框架

PEN SOURCINGAI革命 辩论的框架 公开来源、人工智能和监管 詹姆斯·卡尔·米勒 2023年11月 Open Access。保留一些权利。 开放访问。保留某些权利。作为本作品的发布者,Demos希望在保留版权的同时,鼓励尽可能广泛地传播我们的作品。因此,我们有一个开放访问政策,使任何人都可以免费在线访问我们的内容。任何人都可以下载,保存,执行或分发此内容 工作在任何格式,包括翻译,未经书面许可。这是受知识共享的条款的限制。主要条件是: •演示和作者(S)被认为包括我们的网址•如果您使用我们的作品,您可以在类似的许可下分享结果 creativecommons. org / licenses / by - sa /3.0 / legalcode You are welcome to ask for permission to use this work forpurposes other than those covered by the license. Deemosgratefully acknowledgates the work of Creative Commonsin spiring our approach to copyright. To find out more go to 该项目得到了 由Demos 2023年11月发布© Demos. Some rights reserved. 15Whitehall, London, SW1A 2DD T: 0203878 3955 ACKNOWLEDGEMENTS 我们在六个星期的时间内迅速开展了这个项目,以便在AI安全峰会之前提供其见解。 我们感谢普华永道的宝贵见解和支持,并感谢所有为本文中的想法做出贡献的人,他们参加了我们的非公开讨论会议,并反馈了本文件的草案和之前的简报。 超过40位领先的技术人员、来自人工智能公司和投资公司的代表以及来自民间社会的同事参与了这方面的想法分享,代表了关于这个问题的各种观点。我们有意和深思熟虑地邀请了来自最广泛观点的人们来帮助宣传这次对话。我们非常感谢 来自科学、创新和技术部的官员,以及来自人工智能的官员基金会模型工作组,感谢他们参与这个项目。 最后,我们感谢Demos的同事:Mary Briggs,Polly Curtis,Sophia Knight,Naema Malik,Hannah Perry以及研究员Flynn Devine的进一步见解和支持。 任何错误仍然是作者的责任。 詹姆斯·鲍尔,演示研究员Carl Miller,CASM研究总监 关于这个项目 该项目是CASM在Demos致力于阐明,衡量和倡导保护和促进民主价值观和人权的互联网和技术的工作的一部分。它位于我们的计划中,研究新兴技术及其对社会,民主和经济的影响。 在演示中,我们将人们置于决策的核心,并有兴趣在由部门定义的时代找到共识。在这个项目中,我们热衷于将其付诸实践:研究一个分裂感兴趣的社区的主题,并寻找务实的解决方案,这些解决方案建立在共同利益的共识基础上,而不是助长分裂。 政策上下文 在我们发表本文时,英国政府正在布莱奇利公园召开AI安全峰会,来自全球的政府和技术公司齐聚一堂,共同考虑AI治理未来的挑战。这些公司和许多其他公司正在疯狂地竞相开发越来越先进的人工智能模型,以预测其未来英国即将离任的首席科学顾问告诉议会的技术公司可能是自工业革命以来最具变革性的公司。1 必须做的事情既极其困难,又绝对必要。 表明政府了解AI和 有一个计划来安全地推出它将是重要的获得公众的信心,在相当大的 对人工智能安全的担忧。抗议团体使用直接行动来警告他们看到的风险。2内容生产者领导了第一批“数据起义”,反对AI模型摄取其产品。32016年,只有5%的公众将人工智能列为人类面临的三大风险,但在2023年6月重复的调查中,这一比例上升到17%。4 英国政府和世界各国政府一样,被要求在人工智能监管上针锋相对。他们知道他们必须将控制与创新相结合,将安全与速度相结合,将道德与破坏相结合。他们面临着来自公众的压力,他们既看到了人工智能可能带来的巨大好处,也看到了风险。人工智能人才和资本是全球性和流动性的,任何监管制度都必须在激烈的国际竞争背景下反映国家传统。 从短期来看,62%的公众认为人工智能会对就业产生负面影响(8%的人认为人工智能会是积极的),只有1%的人“非常有信心”从事人工智能的公司会负责任地这样做,同样,只有1%的人对政府的监管能力非常有信心。5AI的使用 各国政府必须尽快努力,以尝试和响应AI的发展速度,近年来,AI的发展速度甚至超过了大多数技术倡导者的预期。立法者和监管机构渴望获得对增长,业务和社会的潜在好处– 一项美国研究发现,70%听说过人工智能的人不相信公司会使用人工智能。6这些数字强调了建立一个可信的监管体系以维持人工智能在民主环境中的社会合法性的重要性。 But are accutely aware of its potential risks. These rangefrom the near term observed hurms and risks, includingaccelerating fraud, misinformation and bias, to potential riskssuch as mass university and even existal threats. 在最好的情况下,监管是一项令人担忧且不确定的业务,充满了意想不到的结果和潜在的反常动机。有了人工智能,它现在必须以与技术本身令人眼花缭乱的速度相匹配的速度前进。决策 1Vallance,P,'HC1324 / Q47:科学,创新和技术委员会,'下议院,2030年5月3日。https: / / committes。parliments. uk / oralevision /13104 / html /2Meaker,M,“与AI抗议小组一起反对人类灭绝运动”,《连线》,523年6月25日。https: / / www. wir. co. uk / article / pause - ai - existential - risk34Smith,M,“去年对AI启示的担忧上升”,YouGov,2023年6月5日。可在以下网址获得:https: / / yougov. co. uk / technology / articles /45782 - conferns - ai - apocalypse - rise - last - year [26 / 10 / 2023]5史密斯,M,“英国人认为人工智能会牺牲工作… …而不是他们自己的工作,” YouGov,2023年5月19日。可在以下网址获得:https: / / yougov. co. uk /技术/文章/ 45730 -英国人- think - ai - will - cost - jobs - not - their - own [访问26 / 10 / 2023]6皮尤研究中心,https: / / www. pewr esarch. org / internet / 2023 / 10 / 18 / views - of - data - privacy - risks - personal - data - and - digital - privacy - laws / pi _2023 - 10 - 18 _ data - privacy _ 1 - 11 / THE OPEN消息来源挑战 在这种情况下,各国政府被迫面对一个新的监管挑战:人工智能在前沿的潜在风险是否意味着他们第一次需要认真考虑限制自互联网诞生以来支撑互联网创新的开源传统。 模型是开放的分析和修改可能有助于其更广泛的接受,以及加快其吸收。 但是开源AI并非没有风险:人们可以使用开源AI创建没有护栏的模型,就像我们在应用程序中看到的那样蠕虫,7一个为帮助网络而建立的生成模型- 这正在迅速成为与人工智能监管相关的最关键问题之一:如何将安全和控制与长期建立的开源正统相结合?这是提供有关模型的技术信息的地方,使更多的人能够开发,托管,再培训和重新利用它。从StableLM到Dolly,从Cerebras - GPT到Llama 2,到2023年,已经以开源的方式(尽管程度不同)发布了许多强大的AI模型;现在,评论员推测开源模型是否会赢得与专有同行的“AI竞赛”。 罪犯在他们的努力中定义自己为 ChatGPT的“敌人”。然而,开源倡导者指出,一些封闭的人工智能系统很容易被规避,也容易受到网络犯罪分子的攻击。8 现有的开源AI可用于创建专门用于造成伤害或传播错误信息或创建儿童性虐待图像的模型。9随着模型变得更加强大,意外或故意伤害的可能性也相应增加,有些人认为,可能会与生物武器或核武器相提并论。10开源功能强大的AI模型可能会加剧这种风险。 开源运动长期以来一直为开放软件开发提出了一系列有力的论点。他们认为,使代码可用可以使软件透明,因此更安全,并加快创新。支撑互联网的许多软件都是开源的,它是一种与计算本身一样古老的工作方式。现在许多人扩展了道德和技术论点也是人工智能的开源。 至关重要的是,一旦模型是开源的,执行任何后来被认为有必要的法规对政府和受监管实体都将更加繁重。很少有组织能够创建基础模型,但是具有相关技能的人可以下载,构建和部署已经制作的模型。在这个阶段,必须在用户级别执行新法规-对于所有相关人员来说,这是一个更昂贵,更复杂的命题。 向外部开发人员甚至公众开放模型显然可以帮助建立对其积极潜力的信心。有保证知道代码的基础 当前开放辩论SOURCING AI 编辑寻找冲突。社交媒体针对分歧进行了微调,而不是细微差别和建立共识。 在公共领域,围绕人工智能监管的辩论–尤其是对高级模型的开放访问是否需要受到限制-是一个极其两极分化的问题,引发了从事AI工作的人之间的激烈分歧。Netscape的创始人马克·安德森(在turn创立了Mozilla,该公司生产Firefox浏览器等开源Web应用程序)和风险投资公司A16Z的普通合伙人,将自己定位为不受限制开发的拥护者。 在这种背景下,Demos努力召集一个私人讨论论坛— —包括科技高管、风险资本家、公民社会和政府人士— —不是试图解决这个问题,而是试图理解这个分歧的真正性质,任何共识都在哪里,并更好地构建辩论的条款。 但这个问题引发了各方强烈的意见,我们需要创造一个更具建设性和务实的空间来探索这些问题,基于当今新兴技术的现实以及我们对它们的风险和机遇的了解。 His movement, “Effective Accelerationists ”, or“ e / accs ”as its adhements are identified themselves on socialmedia, think that any objective to AI development is anegative. In his recent “Techno - “乐观宣言”,安德森将“存在风险”,“技术伦理”,甚至“信任与安全”等观点列为“敌人”。11 鉴于我们现在看到的人工智能发展的步伐,再加上对人工智能提供切实价值的期望以及促进创新的必要性,我们认为围绕下一代人工智能模型的开放性的辩论是一个紧迫的问题-我们应该向公众建设性地进行。 与此形成对比的是,人工智能安全公司Conjecture的首席执行官ConnorLeahy公开呼吁立即暂停最危险的人工智能开发形式,这一运动(主要被批评者称为“减速主义”)。12 赌注很高,公共职位的范围非常广泛和热情。出现在公共领域的辩论版本通常看起来比它可能更加两极分化在现实中。电视节目选择最有趣且通常是极端的位置。人们在镜头前或撰写专栏文章和报纸时,