您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[ITIF]:为什么 AI 生成的内容标签授权不足 - 发现报告

为什么 AI 生成的内容标签授权不足

文化传媒2024-12-16ITIF记***
AI智能总结
查看更多
为什么 AI 生成的内容标签授权不足

Justyna Lisinska 和 Daniel Castro | 2024 年 12 月 16 日 随着人工智能(AI)工具在生成高质量内容方面的能力不断提升,包括文本、图像、音频和视频,批评者担心可能会出现潜在的滥用情况,如传播虚假信息、实施欺诈、侵犯知识产权(IP)以及制造有害的深度假信息。一些政策制定者提议对所有由AI系统生成的输出内容强制标注标签,以便用户能够区分人类生成和AI生成的内容。然而,强制性标注,特别是通过水印的方式,既不是解决问题的合理方案,也不是有效的解决方案。政策制定者应该优先考虑在整个数字生态系统中建立信任,而不是单独针对AI生成的内容。 INTRODUCTION 生成性人工智能(GenAI)使用户能够生成高质量的数字内容,如图像、文本、音乐和视频。这一技术进步丰富了众多创意可能性,提升了工人的生产效率,并提供了创新的新工具。1大多数生成人工智能系统(GenAI)的输出是有益且无害的,但一些政策制定者对其潜在滥用表示担忧,包括通过伪造内容传播虚假信息、侵犯由AI生成的现有作品仿制品引起的知识产权权利,以及创建有害的深度假信息,如用于实施欺诈或产生未经授权的AI生成裸照等具有剥削性内容的冒名顶替。2 政策制定者呼吁强制标注所有AI生成的内容;然而,这一方法存在严重的局限性。而在标签AI- 生成的内容,特别是通过水印技术,可以帮助用户识别一些AI生成的材料。但要求对所有AI生成的内容都进行此类标识在实际操作中既不现实也不有效,原因包括内容多样性、抵抗操纵能力有限以及不同的监管要求。更重要的是,这样做无法解决政策制定者的主要关切,即虚假信息、知识产权侵权和深度合成内容。3 这份报告首先概述了标记AI生成内容的主要方法,然后突出了来自世界各地的关键AI标记法规和倡议。随后,报告分析了为什么尽管某些政策制定者对其表示青睐,但强制标记并不是一个好的政策选择。最后,报告强调了增强所有内容(无论是人类还是AI创作的内容)透明度的重要性,并开发针对恶意使用GenAI的有针对性策略。而不是对AI生成的内容强制要求复杂且永久的标签,本报告建议通过已建立的标准(如内容来源和真实性联盟C2PA)促进所有在线内容的自愿标签。4 该报告为政策制定者加强对数字内容的信任提供了一些建议 : 1. 通过采用如C2PA这样的成熟行业标准,鼓励自愿为所有数字内容添加标签,嵌入加密安全的元数据。 2. 发起数字、AI和媒体素养宣传活动,使用户能够评估数字内容的真实性与可信度,并据此做出知情的内容消费决策。 3. 针对 misinformation、IP权利侵权和深度合成等内容问题,开发有针对性的应对措施,而非广泛地将AI内容进行标签化。 标记 AI 生成内容的三种主要方法 数字水印、数字指纹技术和使用加密元数据都是对AI生成内容进行标记和验证的方法。虽然每种方法都提供了某些优势,但也各自存在局限性,突显了在当今数字生态系统中可靠识别AI生成媒体的复杂性。 AI 水印 这种技术涉及将一个独特的信号(称为水印)嵌入由AI模型生成的输出中(如文本、音频、图像或视频)。水印可以设置为可见或不可见。5用于水印AI生成内容最有效的方法是使用无形信号,只有专门软件才能检测到。 是否在一段内容中存在无形水印通常需要使用专门设计用于特定水印系统的所有权工具。 数字水印受限于在不降低内容质量的情况下能够添加的数据量。有意或无意对内容的操纵也可能去除水印。6用于对 AI 生成的内容进行水印的技术因媒体而异。考虑一些选项 : 文本 : 在文本块中使用某些单词选择。 . Image : 在图像像素中嵌入不可见的数据。 . 音频 : 在音轨中包含难以察觉的信号。 视频 : 在每一帧中的视频像素内隐藏数据。 不幸的是, 这些技术中没有一种能够经受住去除水印的先进方法。7 数字指纹 数字指纹识别通过基于内容本身生成一个独特的代码(指纹),例如像素、视频帧、文本或音频波形,并将该代码与内容的相关信息(如是否由AI生成、生成日期或生成者)链接起来,来工作。用户可以对遇到的内容创建指纹,并检查这些指纹是否存在于受信任的数据库中。8如果内容被实质上改变, 则数字指纹识别可能失败。9 加密元数据 元数据是指有关内容的数据 , 例如其创建日期和创建者。10元数据通常嵌入用于常见媒体形式(如图像、音频和视频)的文件中。加密元数据使用加密技术来保护这些信息,以确保信息的完整性和真实性。用户可以检查遇到的内容的加密元数据。然而,元数据可能会无意间或故意被删除。11 标记 AI 生成内容的推送 标签的目的在于允许用户检测由AI生成的内容以防止欺诈和误导。其目标是阻止虚假信息和错误信息的传播、识别有害的深度假信息,并检测试图冒充人类创作内容的AI生成内容。 全球各国 policymakers 已提出各种形式的强制性 AI 标签,often 通常通过水印要求来实现。以下是一些关键的法规和倡议: 欧洲联盟 《AI法案》已于2024年3月正式被欧盟采纳,要求提供人工智能系统的服务商——包括生成合成音频、图像、视频或文本内容的提供商——必须以机器可读的格式标注AI生成或修改的输出。服务商必须采用“有效、互操作性强、稳健且可靠”的技术解决方案,并需考虑每种内容类型的独特特性、实施成本以及最新的技术标准。12技术解决方案的例子包括水印、元数据标签、用于验证内容来源和真实性的人际加密方法、日志记录机制以及数字指纹。13 United Kingdom 人工智能法案,由保守党政府于2024年5月在上议院提出,旨在制定人工智能的监管规定。尽管该法案未获议会通过,但其中包含了要求向提供人工智能驱动的产品或服务的企业明确且无歧义地进行标识的规定,包括健康警告以及用户给予或拒绝知情同意的机会。14 中国 《2023年1月10日发布的互联网信息服务深度合成管理规定》要求服务提供商对AI生成的内容(包括文本、图像和视频)进行水印标注。15它要求companies使用“深度合成”技术(例如,AI生成的视频、声音或图像)在其创建或编辑的内容中添加可见标记(水印)。16 美国 美国有联邦和州关于 AI 标签的政策 , 包括以下内容 : .拜登总统的行政命令 :拜登总统2023年的AI行政命令要求商务部制定生成人工智能内容的标签指南。人工智能公司将以这些指南为基础开发标签和水印工具,白宫希望联邦机构采用这些工具。17 .OMB M-24-18在2024年9月,美国管理与预算办公室(OMB)发布了备忘录M-24-18,题为“推动政府负责任地获取人工智能”,该备忘录规定,联邦机构在购买用于企业范围使用的工具时,必须要求供应商实施水印、加密元数据或其他类似的先进技术解决方案,以识别内容为AI生成,链接到特定使用的模型,并允许追踪其来源和编辑。18 .加州 AI 透明度法案 :这部立法于2024年9月由加利福尼亚州州长纽森签署,并将于2026年1月1日起生效,要求月活跃用户数超过一百万的服务提供商必须提供三项主要服务: 免费检测工具 :用户可以上传内容(例如图像 , 视频或音频) , 以检查其是否由提供商的 AI 系统生成或更改。 可见水印:用户可以选择为任何由AI生成的内容添加一个清晰、可见且永久的标签,从而表明该内容是由AI创建或修改的。 不可见水印:每条由AI生成的内容将包含一个隐藏且不可移除的标签(即,水印)。该标签将包含提供方名称、AI系统的版本号、创建或修改的时间和日期,以及一个唯一标识符。19 .AI 生成内容法案咨询参议员佩特·里克特(R-NE)于2023年引入了S. 2765号议案,该议案要求提供商在其生成的所有AI内容上添加水印,以表明内容是由AI系统创建的。该法案未能从委员会推进,将要求联邦贸易委员会制定并执行AI水印标准。20 水印和标签方法的限制 水印无法可靠地识别由AI生成的内容,原因有多个方面。首先,水印容易被剥离,特别是在对抗性环境中,行为体会主动规避检测。其次,国际上关于水印的法律法规不一致,这意味着来自没有标签规则国家的AI生成内容可以未经任何标记而流通。此外,恶意行为者还可以利用不受监管或开源的AI模型生成无水印的AI生成输出。因此,缺乏水印并不能保证内容是由人类制作的。 标记AI生成的内容并不能解决政策制定者更为根本的担忧,如虚假信息、知识产权侵权和有害的深度合成。强调使用水印检测AI生成内容的风险在于可能会制造出AI生成内容与人类创作内容之间的误导性区别,而忽视了这两种来源都可能产生有益或有害的内容。 技术限制 水印AI生成内容通常被视为一种确保用户始终能够区分人类创建和AI生成内容的方法,然而它面临显著的技术挑战,这些挑战限制了其应用。 有效性。由于两个主要原因 , 有效地对 AI 生成的内容进行水印仍然具有挑战性 : 1.容易受到操纵 :水印 , 无论是可见的还是不可见的 , 都不能防篡改。21可见水印可以通过基本的编辑轻松移除,而不可见水印虽然更加坚韧,但仍可能通过高级技术遭受降级或移除。22 2.缺乏标准化 :由于每家公司可以使用与其专有模型绑定的独特水印方法,跨平台验证可能会变得具有挑战性。用户需要不同的工具来验证不同公司生成的内容,这会复杂化检测过程并降低可访问性。此外,在没有标准化方法的情况下,不同平台上水印的检测准确性和一致性可能会存在差异。 AI 生成内容之外的问题 许多促使人们提议要求标注AI生成内容的原因所基于的担忧,如虚假信息、知识产权侵权和内容操纵等问题,并不仅限于AI生成的内容。标注要求对此类问题的根本原因也几乎没有实质性的解决作用。 错误信息和虚假信息 misinformation(无意中的不准确)和 disinformation(故意虚假的内容)可以源自由AI或人类生成的内容。将AI生成的内容进行标注并不能解决信息误导和虚假信息更深层次的原因,如个人倾向于分享未经验证的内容。此外,对AI生成内容进行标注并不能为用户传播虚假或有害信息的行为提供问责机制,也无法阻止他们扭曲或篡改事实性内容。如果不解决这些更深层次的问题,标注可能会成为对一个更为复杂问题的表面解决方案。 侵犯知识产权和失实陈述 标记AI生成的内容以使其与人类生成的内容区分开,并不能防止知识产权侵权的发生。例如,如果有人未经许可使用AI创建一个与其他人受版权保护的作品极为相似的图像,这种AI生成的内容可能构成版权侵权。但这种侵权行为与人类艺术家手动创作侵犯知识产权的内容并无本质区别。 强制要求标注也无法解决有些人可能会将AI生成的内容冒充为自己的作品这一问题。 例如,学生将AI生成的论文冒充为自己的作品,或者创作者夸大自己对最终作品原创贡献的程度。在每种情况下,都没有理由区分使用AI和未使用AI的个人,或者期望仅针对AI工具来解决这种欺骗行为的根本动机的任何解决方案。 Deepfakes 水印标记深伪可能有助于识别某些由人工智能生成的音频、照片和视频,但并不能解决其创造和传播背后的恶意意图,尤其是在政治背景下。在政治领域,恶意行为者可能会使用深伪来虚假地展示公众人物说或做他们从未做过的事情,目的是影响公众舆论或干预选举。即使有水印标识该视频为人工智能生成,这些人仍可以将其传播以误导观众,依赖于许多人会忽略或误解水印的可能性。同样地,当深伪的目标是羞辱或骚扰某人时,即使水印成功提醒大多数人内容是由人工智能生成的,深伪仍然可能达到预期的效果。此外,使用生成性人工智能并不是产生具有欺骗性的、看似真实的媒体的唯一方式。个人可以手动创建欺骗性媒体,例如语音模仿录音假音频,或者使用非人工智能数字工具,如图像编辑软件来制作误导性的图像。 人工智能和人类内容之间的误导性区别 对AI标注的关注制造了AI生成内容与人类生成内容之间的虚假区别,忽视了人类生成内容可能有害而AI生成内容可能无害的事实。这种做法可能会无意中使受众对AI生成的内容产生偏见,促使他们仅基于来源而非实际可信度质疑