您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [中国人民大学]:生成式人工智能对网络信息内容治理的挑战及其应对 - 发现报告

生成式人工智能对网络信息内容治理的挑战及其应对

信息技术 2026-04-01 - 中国人民大学 邵泽
报告封面

中国人民大学 中国人民大学法学院工作组 组长 杨东中国人民大学法学院院长李铭轩中国人民大学讲师 工作组成员 徐枭雄中国人民大学讲师朱余韬中国人民大学讲师吴亚曦中国人民大学博士研究生吕昊然中国人民大学博士研究生 在生成式人工智能快速发展的背景下,网络信息内容的生产模式正在发生深刻变革。随着生成式人工智能引发的网络信息内容风险日益凸显,亟需构建与生成式人工智能时代相适应的网络信息内容治理体系。本报告系统梳理生成式人工智能对网络信息内容生态的重塑,深入分析现有网络信息内容治理制度面临的挑战,结合人工智能监管的国际发展趋势,重点围绕生成式人工智能内容识别、平台治理、责任分配等关键议题展开研究,提出完善人工智能生成内容治理的建议。 目录 一、生成式人工智能重塑网络信息内容生态01 (一)生成式人工智能的兴起(二)生成式人工智能变革网络信息内容生产(三)生成式人工智能引发网络信息内容风险010202 二、生成式人工智能对网络信息内容治理的挑战04 (一)信息失序:生成内容的识别挑战(二)平台革命:新型平台的规则缺位(三)责任困境:内容损害的分配难题040506 三、人工智能监管的国际发展趋势07 (一)美国:发展导向的弱监管模式(二)欧盟:安全导向的强监管模式(三)中国:发展与安全并重的中间道路070708 四、完善人工智能生成内容治理的建议10 (一)内容识别:技术与制度协同发展10 (二)平台治理:新型平台的规则构建10 (三)责任分配:内容损害的责任规则11 一、生成式人工智能重塑网络信息内容生态 AdversarialNetworks,GANs),为图像生成领域带来里程碑式的进展,图像生成的效果达到了人类难以分辨的程度。5之后,StyleGan 模型、去噪扩散概率模型(DenoisingDiffusionProbabilisticModel)等一系列模型进一步提升了图像生成的质量。在自然语言处理领域,2017 年,谷歌 AshishVaswani 等人提出了 Transformer 模型,成为自然语言生成的标杆模型。6之后,诸多预训练语言模型(如 BERT、GPT、BART)进一步提高了文本生成的质量。而最近的一项具有变革性意义的技术,便是大语言模型。这一技术的诞生,标志着生成式人工智能在技术层面的巨大突破,并推动生成式人工智能开始在人们的生活生产中得到大规模使用。 (一)生成式人工智能的兴起 生成式人工智能是指“基于算法、模型、规则生成文本、图片、声音、视频、代码等内容的技术”。1一种常用的人工智能分类方法是将其分为决策式人工智能和生成式人工智能。决策式人工智能学习数据中的条件概率分布,即一个样本归属于特定类别的概率,再对新的场景进行判断、分析和预测,典型的例子包括人脸识别、推荐系统、自动驾驶以及其他智能决策系统。2生成式人工智能则学习数据中的联合概率分布,即数据中多个变量组成的向量的概率分布,对已有的数据进行总结归纳,并在此基础上创作全新的内容。3相较而言,决策式人工智能的底层技术相对成熟,也较早地在各领域得到广泛的应用。而生成式人工智能的发展突破则相对较晚,直到近年来才开始在应用层得到爆发式增长。4 大语言模型(LargeLanguageModel,LLM)是指拥有数百亿或者更大规模参数的预训练语言模型。7早在 2020 年,OpenAI 公司就发布了 1750 亿参数的 GPT-3 模型,其在许多自然语言处理任务上已经表现出超凡的能力。8在此模型之上,OpenAI 开发了 GPT-3.5 模型,ChatGPT 的最初版本就是基于这一大语言模型,其参数规模也在 1750 亿级别。随后,OpenAI 又 发 布 了 更 大 规 模 的 GPT-4 模 型, 其参数规模据传达到 1.76 万亿级别。规模的增大使模型具备了一些“涌现能力”,也即“在小模型中不存在但在大模型中出现的能力”,例如上下文学习、指令遵循 和 逐 步 推 理。9这 些 能 力 使 ChatGPT 具 有 更 好 的通用能力,可以处理一些之前难以解决的复杂任务。随着 ChatGPT 的成功,人们意识到大语言模型与生成式人工智能的强大能力与巨大潜力。以 OpenAI、DeepSeek、Anthropic、月之暗面等为代表的生成式人工智能公司迅速崛起,以谷歌、阿里巴巴、字节跳动为代表的传统科技公司也纷纷入局生成式人工智能的开发与应用,掀起了全球生成式人工智能的发展热潮。 早 在 20 世 纪 50 年 代, 就 已 经 出 现 了 生 成 式人工智能的早期模型。研究人员提出了一些基础的统计模型,例如隐马尔可夫模型(HiddenMarkovModels,HMM)和高斯混合模型(GaussianMixtureModels,GMMs)。利用这些模型,人们尝试进行计算机辅助创作。一个著名的例子是 1957 年的《IlliacSuite》,它被认为是第一部由计算机创作的音乐作品。这时候的模型结构比较简单,在应用时需要依赖大量人工编写的规则,开发成本高昂,因此生成式人工智能的发展比较缓慢。进入 21 世纪后,神经网络模型开始在各类任务上取得显著的效果,生成式人工智能技术也随之进步。特别是随着硬件技术的提升和深度学习算法的发展,人们可以训练更加深层的神经网络模型,而模型复杂度的提升带来了生成内容质量的飞跃。在计算机视觉领域,2014 年,IanGoodfellow 等人提出了生成式对抗网络(Generative (二)生成式人工智能变革网络信息内容生产 (三)生成式人工智能引发网络信息内容风险 技 术 的 发 展 经 常 具 有 两 面 性, 生 成 式 人 工 智能 的 兴 起 不 仅 革 新 了 网 络 信 息 内 容 的 生 产 模 式,也 引 发 了 各 种 风 险。2021 年,DeepMind 的 一 项研究总结了大语言模型可能造成的 6 个类别 21 项风险。14在这些风险中,有不少与信息内容相关。例 如, 该 研 究 提 到, 大 语 言 模 型 可 能 会 生 成 有 毒害 的 语 言(toxiclanguage), 泄 露 隐 私 或 者 敏 感信 息(privacyorsensitiveinformation), 提 供错 误 信 息(misinformation), 使 制 作 虚 假 信 息(disinformation)变得更加低廉和有效。这些风险都可以归为生成式人工智能引发的网络信息内容风险。从风险类型看,根据生成的网络信息内容类型,生成式人工智能引发的网络信息内容风险主要包括个人信息风险、有害信息风险和错误信息风险。 在 生 成 式 人 工 智 能 兴 起 之 前, 网 络 信 息 内 容的 生 产 模 式 主 要 是 专 业 生 成 内 容(ProfessionalGeneratedContent,PGC) 模 式 和 用 户 生 成 内 容(UserGeneratedContent,UGC) 模 式。PGC 是指由专业的内容创作者或团队进行创作、编辑和发布的内容。10早在传统媒体时代,这种内容生产模式就已存在,例如报刊、电视、电影等。进入到数字时代后,PGC 模式也是网络信息内容的主要生产模式,无论是web1.0 时代的新闻门户网站等,还是 web2.0 时代的长视频、音乐网站等,都是 PGC 生产模式的典型代表。随着网络用户的急剧增长以及网络技术的快速发展(特别是存储和传输技术的发展),UGC 模式也逐渐成为网络信息内容的另一种重要生产模式。UGC是指由普通用户或受众参与创作、编辑和发布的内容。11基于这一模式的典型代表包括社交网络、博客、知识共享平台等,大多是在 web2.0 时代兴起的网络平台。 第一,个人信息风险。如果训练数据中存在个人信息,大语言模型可能会“记住”并生成这些信息。例如,有研究发现,在采样的 600,000 个由 GPT-2生成的文本中,至少有 604 个(约 0.1%)包含从训练数据逐字复制的文本,其中一些文本就包含训练数据中的个人身份信息。15也有研究针对 ChatGPT和 NewBing 进行了实验,发现:(1)相比之前的语言模型,ChatGPT 可以更好地防止使用者通过简单 的 提 示 词(Prompt) 生 成 个 人 信 息, 但 是 如 果使 用 者 利 用 精 心 设 计 的 越 狱 提 示 词(JailbreakingPrompt),ChatGPT 仍 会 生 成 个 人 信 息。(2)NewBing 集成了 ChatGPT 和搜索引擎,带来了更大的隐私风险。利用 NewBing,人们不仅通过简单的提示词就可以生成个人信息,甚至可以生成训练数据之外的个人信息。16 生成式人工智能的兴起对网络信息内容的生产模式产生了深刻影响,主要是使人工智能生成内容(AIGC)成为了网络信息内容的主流生产模式。有观点 认 为,AIGC 是“ 继 专 业 生 成 内 容(ProfessionalGeneratedContent,PGC)和用户生成内容(UserGeneratedContent,UGC)之后,利用人工智能技术自动生成内容的新型生产方式”。12随着生成式人工智能的发展和广泛应用,网络信息内容中人工智能生成内容的比重越来越高。有预测称,到 2026 年,互联网上多达 90% 的内容可能由人工智能生成或增强。13这预示着,AIGC 正在逐渐成为网络信息内容的重要来源,甚至未来有可能会取代 PGC 和 UGC,成为网络信息内容最主要的生产模式。 第二,有害信息风险。生成式人工智能也可能会 其生成的回答充满各种错误信息。19人工智能生成错误信息的可能原因有:(1)训练数据中包含错误信息,人工智能模型在训练过程中学习并在输出过程中生成这些信息;(2)语言模型存在“幻觉”(Hallucination)现象,可能会输出无意义的或者不忠实于源内容的信息,从而生成错误信息;(3)用户恶意利用生成式人工智能制作虚假信息,例如用户使用误导性的指令来引导语言模型生成虚假新闻,或者使用图片生成式人工智能来进行深度伪造。 生成仇恨言论、欺诈信息、侵权内容等违法有害信息。例如,根据 OpenAI 的报告,ChatGPT 会回应有害的指令或者表现出偏见的行为。17还有研究发现,如果通过指令让 ChatGPT 扮演“坏人”的角色,会让它有更高的概率生成有害信息。18此外,恶意用户可能会利用生成式人工智能从事欺诈、侵权等违法活动,生成各类违法有害信息。 第三,错误信息风险。生成式人工智能可能会生成错误的、不真实的信息。例如,NewsGuard 的一项试验显示,将虚假陈述作为提示词输入 ChatGPT, 二、生成式人工智能对网络信息内容治理的挑战 第二,人工智能生成内容受到的权利保护更弱。人类创作内容只要符合最低程度的独创性,在法律上一般都能获得著作权的保护。但从实践来看,人工智能生成内容很难在现有的著作权法制度体系下获得法律权利的保护。在以中美为代表的主要法域中,法院或著作权行政管理机关均把人类创作作为作品的构成要件之一,因此完全由人工智能生成的内容无法受到著作权的保护。在我国法院判决的一系列案件中,法院均认定完全由人工智能自动生成的内容不构成著作权法意义上的“作品”。例如,在“北京菲林律师事务所诉北京百度网讯科技有限公司侵害作品著作权纠纷案”中,法院认为,自然人创作完成是著作权法上作品的必要条件,计算机软件智能生成的“作品样”结果并非著作权法意义上的作品。23美国版权局也持类似的观点。例如,美国版权局发布了《版权登记指南:包含人工智能生成材料的作品》(CopyrightRegistrationGuidance:WorksContainingMaterialGeneratedbyArtificialIntel