您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[挪威消费者协会]:生成式人工智能对消费者的危害英文版 - 发现报告
当前位置:首页/行业研究/报告详情/

生成式人工智能对消费者的危害英文版

生成式人工智能对消费者的危害英文版

机器中的鬼魂解决生成 AI 对消费者的危害2023 年 6 月 TABLE OF CONTENTS1–INTRODUCTION61.171.1.1生成 AI 的示例模型81.1.2生成式人工智能演员链111.1.3开源或闭源模型121.1.4一般用途AI121.2132- 遗传的危害和挑战人工智能142.1152.1.1识别生成 AI 的具体风险152.1.2技术解决主义172.1.3将权力集中在大技术手中172.1.4不透明的系统和缺乏问责制192.2222.2.1错误和不准确的输出222.2.2AI 模型的拟人化232.2.3Deepfakes 和虚假信息252.2.4检测 AI 生成的内容272.2.5广告中的生成人工智能282.3292.3.1训练中的偏见数据292.3.2Contentmoderation302.4312.4.1与用于模型训练的数据集相关的隐私挑战312.4.2与生成的内容相关的隐私挑战322.532 2.6用生成 AI 取代面向消费者的应用程序中的人类 ,全部或部分332.6.1与结合人力和自动化决策相关的挑战332.7342.7.1气候影响342.7.2Water脚印362.7.3绿色洗涤和对绿色 AI 的希望372.8372.8.1劳动剥削与鬼工372.8.2劳动自动化和对工作的威胁382.9383–法规403.1453.1.1数据主体权利463.1.2意大利 DPA 关于 ChatGPT 的决定473.2483.2.1美国的消费者法493.3503.3.1一般产品安全指令503.3.2一般产品安全法规503.4513.53.6523.6.1欧盟委员会的提案523.6.2欧盟理事会对友邦保险的立场533.6.3欧盟议会的立场AIA533.6.4人工智能法案必须保护消费者543.7543.7.1产品责任指令543.7.2修订后的产品责任指令553.7.3AI 责任指令55 3.8564- 途径FORWARD574.1594.2604.2.1呼吁采取行动并赋予执法机构权力604.2.2决策者 - 战略措施614.2.3新的立法措施61机器中的幽灵- 解决生成 AI 对消费者的危害挪威消费者委员会2023 年 6 月 www. forbrukerradet. no / ai 设计作者 : Von Kommunikasjon 挪威消费者委员会机器中的幽灵2023 年 6 月5执行摘要执行摘要There has been an explosion of consumer facing generative - isal intelligence services. These applications can be used to generic text, images, sound, or video that close similar similar human - made content. As generative AI systems become integrated into popen -lar 平台和工具 , 该技术的采用有望持续增长。同时 , 许多新兴挑战引发了关于如何确保生成 AI 安全 , 可靠和公平的众多辩论。本报告是对这些讨论的贡献,旨在为政策制定者、立法者、执法机构和其他相关实体提供一个强有力的起点,以确保生成人工智能不会以牺牲消费者和人权为代价。我们无法确定技术在未来的几个月和几年中将如何发展,但我们相信技术进步的方向应该以社会的方式发生。因此,我们提出了一些总体原则,可以帮助定义如何以消费者和人为中心的方式开发和使用生成 AI 系统。我们还强烈敦促政府 , 执法机构和政策制定者立即采取行动 , 利用现有的法律和框架来解决自动化系统今天已经造成的危害。应该同时开发新的框架和保障措施 , 但是消费者和社会不能等待数年 , 而技术正在推出 , 而没有适当的制衡。本报告的第一章提供了生成 AI 及其用途的解释 , 以及几个例子和插图。在第二章中 , 我们总结了生成 AI 的各种当前和新兴挑战 , 风险和危害。这包括与G权力、透明度和问责制 ,G错误或不准确的输出 ,G利用技术操纵或误导消费者 ,G偏见和歧视 ,G隐私和个人诚信 ,G安全漏洞 ,G自动化人工任务 ,G环境影响,G劳动剥削。第三章概述了现有和即将实施的规则和条例的拼凑 , 这些规则和条例可能适用于生成人工智能系统的开发、部署和使用。这主要围绕欧盟立法 , 但也有一些涉及美国正在进行的进程。最后一章包含了许多关于如何解决生成 AI 问题的建议。这包括 :G执行现行法律法规 ,G确保执法机构有足够的资源 ,G加强消费者保护 ,G强有力的政府政策 ,G新的立法措施,G涵盖开发商的强大义务以及生成 AI 系统的部署人员。 1.INTRODUCTION 挪威消费者委员会机器中的幽灵2023 年 6 月71. Introduction几十年来 , 面向消费者的人工智能系统以各种形式存在 , 用于个性化社交媒体 , 过滤电子邮件 , 推荐流媒体内容 , 文本翻译等等。其中一些目的是良性和谨慎的 , 大多数人可能永远不会意识到他们正在与 AI 驱动的系统进行交互。随着大规模部署和采用生成人工智能 ( “geerative AI ” ) 系统,面向消费者的应用程序中的 AI 驱动系统的新浪潮正在迅速到来。生成 AI 是人工智能的一个子集,可以生成合成内容,如文本、图像、音频或视频,这些内容可以非常类似于人类创建的内容。这样的系统准备改变消费者今天遇到的许多界面和内容。2022 年 11 月 , 聊天机器人 ChatGPT 的原型向公众发布。该应用程序迅速受到全球关注 , 在发布一个月内成为有史以来增长最快的数字服务。1 在接下来的几个月里 , 其他用于生成文本、图像、声音和视频的服务被快速部署和迭代 , 引发了对生成 AI 系统的军备竞赛。消费者可以直接在网络界面中访问这些内容生成器 , 而公司开始在他们的应用程序和服务中嵌入内容生成器。生成 AI 系统的突然广泛部署和采用引发了公众对该技术的承诺和危险的讨论。辩论的范围从如何使用生成 AI 来提高劳动力效率并激发风险 -它如何被用来传播虚假信息 , 操纵个人和社会 , 取代工作 , 挑战艺术家的版权。关于如何控制或监管这些系统的讨论正在进行中,世界各地的政策制定者都在努力应对生成人工智能的承诺和挑战。本报告通过从消费者角度对最紧迫的问题进行分析,以及从法律,道德和政治角度出发的许多可能的解决方案和方法,对这些讨论做出了贡献。虽然我们并不假装对生成人工智能提出的所有问题都有答案,但我们相信,许多正在出现或正在出现的问题可以通过监管、执法和具体政策的组合来解决,这些政策旨在引导技术朝着对消费者和人类友好的方向发展。由于生成 AI 的发展似乎以惊人的速度发展 , 因此整个报告中的描述必须被视为新兴技术的快照。该报告是在 2023 年 2 月至 5 月之间撰写的 , 不包括 6 月 1 日之后发表的论文的任何新信息。挪威消费者委员会是一个公共资助的独立消费者组织 , 代表消费者利益。这份报告是由 BEUC 的贡献撰写的 , VZBV 的 Miika Blinn , 爱尔兰公民自由委员会的 Kris Shrishak , Access Now 的 Daniel Leufer , Jon Worth , Marija Slavkovik 和来自卑尔根大学的 Anja Salzmann 。1.1生成人工智能概述生成 AI 是一个笼统的术语,用于描述算法模型,这些模型被训练来生成新数据,如文本、图像和声音。虽然这些应用程序依赖于不同类型的输入数据,但它们如何训练的一般原理是相似的。由于互联网上可用的大量内容,加上机器学习和计算能力的进步,高级生成 AI 的出现是可能的。生成 AI 模型通过分析大量信息来预测和生成句子中的下一个单词,图像特征等。这是通过检测训练数据中的模式和数据点之间的关系来完成的, 这进而允许系统复制类似的模式以生成合成内容, 例如一段写作、音乐或视频剪辑。该过程还可以被描述为来自系统的数据的内容的复杂 “混搭 ” 。被训练过。换句话说 , 它们是预测性模型 - 挪威消费者委员会机器中的幽灵2023 年 6 月81.1 生成人工智能概述被训练为在现有内容中的数据点之间 “连接点 ” 以生成合成内容的 EL 。生成的内容是基于某些输入 ( 或 “提示 ” ) 的概率和随机生成的 , 这些输入通常是由人类编写的。因此 , 任何给定的生成 AI 模型的输出对于每个提示模型的人来说都可能是不同的 , 并且可能都类似于训练数据中的模式 , 或者看起来是全新的东西。1.1.1GENERATIVE AI 模型的示例有各种类型的生成 AI 模型,包括可以通过生成新文本来响应文本的大型语言模型 ( LLM ),以及可以生成多种类型的输出或响应多种类型的多模式模型。下面简要介绍了当今市场上最受欢迎的生成 AI 模型,并通过一些相关示例进行介绍。1.1.1.1文本生成器文本生成器是一种生成 AI 模型 , 可以基于预测分析生成文本段落 , 这些文本段落建立在大型语言模型上。2这些模型通常在大量的从互联网上抓取的文字,包括书籍、论坛、新闻网站、社交媒体等。文本生成器可用于撰写论文,编码,聊天机器人和增强搜索引擎等。在许多情况下, 文本生成器旨在生成看起来是由人类书写的文本, 例如通过使用表情符号生成以第一人称视角书写的文本, 或者通过书写指示其具有体验人类情感的能力的文本。一些文本生成器是多模式的,可以基于图像生成文本。尽管文本生成器已经以某种形式存在了几年 , 例如作为键入文本消息的预测工具 , 但围绕该技术的讨论随着 ChatGPT 的公开发布 , ChatGPT 在 2022 年秋季获得了势头 , ChatGPT 由 OpenAI 公司拥有和运营 ( 也是 DALL - E 的所有者 , 见下文 ) 。 ChatGPT3 可在线获取那些创建免费帐户的人 , 而更强大的 ChatGPT4 模型可用于每月订阅费。32023 年 1 月 , 微软宣布对 ChatGPT 进行重大投资 , 并在 Bing 搜索引擎中推出了基于该技术的新功能。4 微软已宣布打算将 ChatGPT 集成到其其他服务中 , 包括 Microsoft Office 应用程序套件 , 例如在 Microsoft Teams 会议期间自动记笔记。5Google 还开发了可以生成文本的 LLM , 称为 LaMDA 。在 Microsoft 对 ChatGPT 的投资之后 , Google 通过名为 Bard 的文本生成器推出了与其搜索引擎类似的功能。6Google 是还计划引入各种 AI 驱动的功能 , 例如起草和总结电子邮件 , 以及在其 Workplace 应用程序中进行头脑风暴和编写文档。7关于生成 AI 的消费者问题的诗 , ChatGPT 。2 大型语言模型是复杂的 AI 模型 , 旨在生成类似人类语言的文本。它们通常在大量文本源上进行训练 , 以 “学习 ” 模式和语法。 LLM可用于机器翻译、情感分析、人机交互、校对等多种任务。 挪威消费者委员会机器中的幽灵2023 年 6 月91.1 生成人工智能概述Meta 开发了在科学文章和材料上接受培训的 LLM Galactica , 旨在 “存储 , 组合和推理科学知识 ” 。在模型于 2022 年 11 月作为公开演示发布后 , 由于生成包含多个错误和偏见的文本 , 该面向公众的演示很快被删除。82023 年 2 月 , Meta 发布了另一个 LLM , 称为 LLaMa ( 大型语言模型 Meta AI ) 。 LlaMa 是一个开源模型 , 最初基于访问应用程序过程向研究人员发布。 2023 年 3 月 , 该模型在公共留言板上泄露 , 意味着任何拥有相对强大的计算机的人都可以下载 , 使用和修改该模型。9There are also sever

你可能感兴趣

hot

2023生成式人工智能对消费者的危害(英文)

信息技术
挪威消费者协会2023-08-24
hot

生成式人工智能对消费者的危害

信息技术
挪威消费者协会2023-06-15
hot

2023生成式人工智能的潜在有害影响与未来之路(英文版)

电子设备
美国电子隐私信息中心2023-06-24