您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:美国电子隐私信息中心生成式人工智能的潜在有害影响与未来之路(英) - 发现报告
当前位置:首页/行业研究/报告详情/

美国电子隐私信息中心生成式人工智能的潜在有害影响与未来之路(英)

信息技术2023-05-01-未知机构后***
美国电子隐私信息中心生成式人工智能的潜在有害影响与未来之路(英)

生成 AI 的影响和前进道路2023 年 5 月 贡献由格兰特 · 弗格森 · 凯特罗娜 · 菲茨杰拉德 · 克里斯 · 弗拉塞拉 · 梅根 · 约里奥编辑者Tom McBrien Calli Schroeder Ben Winters Enid Zhou格兰特 · 弗格森、卡利 · 施罗德、本 · 温特斯和伊妮德 · 周感谢 Sarah Myers West 和 Katharina Kopp 对本文早期草稿的慷慨评论。关于本文的注释 :这是本文的第 1 版 , 反映了截至 2023 年 5 月 15 日的生成性 AI 的记录和预期危害。由于生成性 AI 的开发 , 使用和危害的快速变化 , 我们要承认这是一个固有的动态论文 , 可能会在未来发生变化。在本文中 , 我们使用标准格式来解释生成 AI 可能产生的危害的类型。每个部分首先解释相关的背景信息和生成 AI 带来的潜在风险 , 然后重点介绍学者和监管机构为补救每种危害而采取的具体危害和干预措施。本文借鉴了A.I.危害来指导我们的分析 :1.Danielle Citron 和 Daniel Solove 的隐私危害类型学 , 包括身体 , 经济 , 声誉 , 心理 , 自治 , 歧视和关系危害;1and2.Joy Buolamwini 的算法危害分类 , 包括机会损失 , 经济损失和社会污名化 , 包括失去自由 , 增加监视 , 刻板印象强化和其他尊严伤害。2这些分类法不一定涵盖所有潜在的人工智能危害 , 我们使用这些分类法的目的是帮助读者可视化和情境化人工智能危害 , 而不限制读者考虑的人工智能危害的类型和种类。 目录 EPIC | 产生伤害 : 生成 AI 的影响和前进的道路1IntroductionOpeAI 决定发布基于大型语言模型 GPT - 3 的聊天机器人 ChatGPT,去年 11 月将 AI 工具推向了公众意识的最前沿。在过去的六个月中,用于根据用户提示生成文本,图像,视频和音频的新 AI 工具大受欢迎。突然间,像 “稳定扩散 ” 、“ 幻觉 ” 和 “价值对齐 ” 这样的短语无处不在。每天都有关于生成 AI 的不同功能及其潜在危害的新故事出现,但没有任何明确的迹象表明接下来会发生什么或这些工具会产生什么影响。虽然生成人工智能可能是新的 , 但它的危害不是。人工智能学者多年来一直在警告我们大型人工智能模型可能导致的问题。3这些老问题因行业目标从研究和透明度转向利润、不透明度和权力集中而加剧。这些工具的广泛可用性和炒作导致了个人和大规模伤害的增加。人工智能复制了种族、性别和残疾歧视,这些危害在本报告强调的每一个问题中都密不可分。OpeAI 和其他公司决定将生成 AI 技术快速集成到面向消费者的产品和服务中,这破坏了使 AI 开发透明和负责任的长期努力,使许多监管机构争先恐后地为后果做准备。很明显,生成人工智能系统可以显著放大个人隐私以及民主和网络安全的风险。用 OpeAI 首席执行官的话说,他确实有权不加速这项技术的发布,“我特别担心这些模型可能被用于广泛的错误信息 ... ... [和] 攻击性网络攻击。. ” EPIC | 产生伤害 : 生成 AI 的影响和前进的道路2 Introduction在没有足够保障措施的情况下,生成性人工智能系统的快速部署清楚地证明了自我调节已经失败。从公司到媒体和政府实体的数百个实体正在开发并希望将这些未经测试的 AI 工具快速集成到各种系统中。如果从一开始就没有必要的公平性、问责制和透明度保护,这种快速推出将产生灾难性的结果。我们正处于一个关键时刻 , 因为全球的政策制定者和行业都在关注人工智能带来的巨大风险和机遇。有机会让这项技术为人们服务。应该要求公司展示他们的工作 , 明确人工智能何时在使用 , 并在整个培训、开发和使用过程中提供知情同意。公众关注的一条线索集中在人工智能的 “存在性 ” 风险上 — — 投机性的长期风险,在这种风险中,机器人在工作、社交和最终接管人类的过程中取代了机器人。“州和联邦一级的一些立法者已经开始更认真地对待解决人工智能问题 - 然而,他们的重点是否只会放在支持公司开发人工智能工具上,并要求边际披露和透明度要求,这还有待观察。对高风险用途制定明确的禁令,解决虚假信息容易传播的问题,要求有意义和积极的披露,以促进知情同意,并加强消费者保护机构,对于解决生成性人工智能特有的危害和风险是必要的。本文致力于提供使用生成人工智能带来的不同问题的广泛概述,教育立法者和公众,并提供一些减轻伤害的途径。- Ben Winters, 高级律师 EPIC | 产生伤害 : 生成 AI 的影响和前进的道路1涡轮增压信息操纵背景和风险免费和低成本的生成 AI 工具的广泛可用性促进了大量文本,图像,语音和视频内容的传播。人工智能系统创建的许多内容可能是良性的,或者可能对特定受众有益,但这些系统也会促进极其有害的内容的传播。例如,生成性 AI 工具可以并且将用于传播虚假,误导性,偏见,煽动性或危险的内容。随着生成性人工智能工具变得越来越复杂,生成这些内容将更快、更便宜、更容易 — — 现有的有害内容可以作为生成更多内容的基础。在本节中,我们考虑了人工智能工具会加速的五类有害内容 : 诈骗、虚假信息、错误信息、网络安全威胁以及点击诱饵和监控广告。尽管我们在虚假信息 ( 虚假信息的有目的传播 ) 和错误信息 ( 虚假信息的无目的传播或创建 ) 之间进行了区分,但人工智能生成的内容的传播将模糊使用人工智能生成的内容的各方的界限,而无需首先编辑或事实检查它。使用 AI 生成的输出而不进行尽职调查的实体应与生成该输出的实体共同对其造成的损害负责。 涡轮增压信息操纵EPIC | 产生伤害 : 生成 AI 的影响和前进的道路2案例研究 - 选举 2024使用 GPT - 4 和后续大型语言模型的产品可以创建快速而独特的人类 “脚本 ”,可以通过文本,电子邮件,打印或通过与 AI 视频生成器结合的 AI 语音生成器进行分发。这些人工智能生成的脚本可用于劝阻或恐吓选民,或传播有关投票或选举的错误信息。例如,在 2022 年,至少有五个州向选民发送了故意错误的投票信息的短信。这种类型的选举错误信息近年来变得很普遍,但生成性人工智能工具将增强不良行为者快速传播可信的选举错误信息的能力。国会必须制定立法 , 防止故意的选民恐吓 , 威慑或通过虚假或误导性信息以及虚假的认可主张进行干预。SCAMS诈骗电话、短信和电子邮件早已失控 , 在许多方面伤害了公众。仅在 2021 年 , 就有 280 万消费者向联邦贸易委员会提交了欺诈报告 , 索赔超过 23 亿美元的损失 , 近 140 万消费者提交了身份盗窃报告。4 生成性 AI 可以使用 AI 生成的文本 , 语音和视频来加速这些各种骗局的创建 , 个性化和可信度。 AI 语音生成还可以用于模仿亲人的声音 , 打电话要求立即获得保释 , 法律帮助或赎金的经济援助。5根据 EPIC 和国家消费者法律中心 2022 年的一份报告 , 每月有超过 10 亿次针对美国电话的诈骗电话 , 这导致了 2020 年 6 月至 21 日期间近 300 亿美元的消费者损失 - 最常见的目标是弱势社区 , 如老年人 , 残疾人和负债累累的人。6这些骗局是大规模进行的 , 通常使用自动语音讲脚本 涡轮增压信息操纵EPIC | 产生伤害 : 生成 AI 的影响和前进的道路3由像 ChatGPT 这样的文本生成器生成 , 旨在假装他们是恐吓消费者汇款的权威人士。 2022 年 , 估计消费者损失增加到 395 亿美元 ,7联邦贸易委员会报告说 , 仅骗局文本就损失了超过 3.26 亿美元。8自动拨号器,机器人文本,机器人电子邮件和邮件,再加上出售数字或电子邮件地址列表的数据代理,使实体能够一次发送大量消息。同样的数据经纪人可以出售作为潜在目标的人的名单,以及关于他们的心理健康状况,宗教信仰或可以利用的性行为的 “见解 ” 。数据经纪人被允许对个人使用的定位程度加剧了人工智能产生的伤害。文本生成服务还增加了成功的网络钓鱼诈骗和不良行为者干扰选举的可能性。这已经发生了 - 在 2021 年的一项研究中 , 研究人员发现 GPT - 3 生成的网络钓鱼电子邮件比人为生成的电子邮件更有效。9生成人工智能可以通过帮助英语技能有限的人制作自然而准确的电子邮件来扩大潜在有效的欺诈者的范围 , 这些电子邮件可以针对员工、情报目标和个人 , 从而使检测骗局变得更加困难。DISINFORMATION不良行为者还可以使用人工智能工具来制作适应性强的内容,这些内容旨在支持竞选活动、政治议程或仇恨立场,并在许多平台上快速、廉价地传播这些信息。这种虚假或误导性内容的快速传播 — — 人工智能促进的虚假信息 — — 也可能对生成人工智能产生周期性影响 : 当大量的虚假信息被注入数字生态系统,并且更多的生成系统通过强化学习方法对这些信息进行训练时,例如,虚假或误导性的输入可能会产生越来越不正确的输出。 涡轮增压信息操纵EPIC | 产生伤害 : 生成 AI 的影响和前进的道路4使用生成性人工智能工具来加速虚假信息的传播可能会助长影响公众舆论 , 骚扰特定个人或影响政治和选举的努力。虚假信息增加的影响可能是深远的 , 一旦传播就无法轻易抵消 ; 考虑到信息披露给民主进程带来的风险 , 这一点尤其令人担忧。错误信息文本生成的大型语言模型 ( 如 Bard 或 ChatGPT ) 输出不准确的现象已经被广泛记录。即使没有撒谎或误导的意图,这些生成性人工智能工具也会产生有害的错误信息。AI 生成的文本遵循的抛光且通常写得很好的风格以及真实事实之间的包含加剧了这种危害,这可能使虚假具有合法性。例如,正如《华盛顿邮报》报道的那样,一名法学教授被列入人工智能生成的 “性骚扰某人的法律学者名单 ”,即使没有这样的指控。10正如普林斯顿大学教授 Arvind Narayanan 在接受 The Markup 采访时说的那样 :Sayash Kapoor 和我称它为废话生成器 , 其他人也是如此。我们的意思不是在规范意义上 , 而是在相对精确的意义上。我们的意思是说 , 它经过训练可以产生合理的文本。它非常善于说服 , 但它没有经过训练可以产生真实的陈述。它通常会产生真实的陈述 , 这是合理和有说服力的副作用 , 但这不是目标。11人工智能生成的内容也牵涉到一个更广泛的法律问题: 我们对所见所闻的信任。随着人工智能生成的媒体变得越来越普遍 , 我们被欺骗相信虚构的东西是真实的情况也会变得越来越普遍12- 或者真实的东西是虚构的。13 当个人不再信任信息 , 并且新信息的生成速度超过了检查准确性的速度时 , 他们能做什么 ? 像维基百科这样的信息源可能会被虚假的人工智能生成的内容淹没。这可以 涡轮增压信息操纵EPIC | 产生伤害 : 生成 AI 的影响和前进的道路5通过诱使目标在例如他们的亲人处于危机中的假设下采取行动 , 在有针对性的情况下是有害的。14SECURITY上述相同的网络钓鱼问题构成了安全威胁。虽然聊天机器人还不能从头开始开发自己的新型恶意软件,但黑客可能很快就会利用像 ChatGPT 这样的大型语言模型的编码能力来创建恶意软件,然后可以对其进行微调以获得最大的影响和效果,基本上允许更多的新手黑客成为严重的安全风险。实际上,安全专业人员已经注意到,黑客已经在讨论如何使用 ChatGPT 安装恶意软件并从目标中提取信息。15生成 AI 工具可以很好地开始从反复暴露于恶意软件中学习 , 并能够开发更多新颖和不可预测的恶意软件 , 以逃避常见安全系统的检测。点击并提供监控广告生态系统除了错误信息和虚假信息之外,生成人工智能还可以用来创建点击诱饵标题和文章,这些标题和文章操纵用户如何浏览互联网和应用程序。例如,生成 AI 被用于创建完整的文章,无论其准确性,语法或缺乏常识,以推动搜索引擎优化并创建更多用户点击的网页。这些机制试图以真相为代价来