
中国互联网协会知识产权工作委员会度小满科技(北京)有限公司2026年2月 版权声明 本报告版权属于中国互联网协会知识产权工作委员会、度小满科技(北京)有限公司,并受法律保护。转载、摘编或利用其他方式使用本报告文字或者观点的,应注明“来源:中国互联网协会知识产权工作委员会、度小满科技(北京)有限公司”。违反上述声明者,将追究其相关法律责任。 前言 人工智能正以指数级速度重塑全球产业格局,各类技术应用形态广泛融入生产生活。随着人工智能用户规模的急剧扩张,人工智能技术应用所引发的多重权益侵害风险持续发酵,侵害形式愈发隐蔽、责任边界日趋复杂,不仅对用户个人权益保护带来全新挑战,更成为制约人工智能产业健康、可信、可持续发展的系统性隐忧。 为深入研究人工智能用户权益保护关键问题与应对举措,中国互联网协会知识产权工作委员会与度小满科技(北京)有限公司联合研究编制了《人工智能用户权益保护关键问题研究报告》。报告在厘清人工智能用户权益内涵外延基础上,系统回顾国内外人工智能用户权益保护实践进展。重点聚焦人工智能数据采集训练、生成内容失范、算法决策偏差、网络安全漏洞等四类高风险场景,剖析其用户权益侵害机理与治理难点,从法律保护、监管规制、技术支撑等协同治理视角提出具体应对建议,并梳理相关实践案例。 本报告旨在为人工智能领域的监管机构、服务提供方与用户等多元主体提供参考。报告所涉数据均引自政府网站、专业机构、官方新闻等公开信息渠道,因不同来源统计口径可能存在差异,且信息发布与更新存在一定时滞,报告中引用的数据与实际情况可能存在偏差,恳请各位读者理解包涵。我们诚挚欢迎社会各界专家、同仁对本报告可能存在的疏漏或不妥之处提出宝贵意见与批评指正。我们将持续优化报告内容,力求在汇聚各方智慧的基础上,共同推动人工智能产业健康、有序发展,并切实加强用户权益保障。 目录 一、人工智能用户权益保护面临现实挑战....................1(一)人工智能用户规模攀升,凸显权益保护紧迫性.......1(二)人工智能侵权形态多样,加大权益保护复杂性.......1(三)侵权影响后果持续深化,凸显权益保护全局性.......2二、人工智能用户权益范畴厘清............................3三、国内外人工智能用户权益保护现状......................4(一)国际社会探索形成差异化用户权益保护路径.........4(二)我国统筹发展和安全建立人工智能治理体系.........6(三)小结...........................................8四、人工智能用户权益保护关键问题分析....................9(一)人工智能数据采集、训练与交互引发的权益侵害.....9(二)人工智能虚假内容生成与使用引发的权益侵害......14(三)人工智能算法决策偏差引发的权益侵害............17(四)人工智能网络安全漏洞引发的权益侵害............21五、总结与展望.........................................24 一、人工智能用户权益保护面临现实挑战 (一)人工智能用户规模攀升,凸显权益保护紧迫性 人工智能技术正以指数级速度重塑全球产业格局,深度渗透金融、医疗、教育、交通等领域,相关应用场景持续拓展,从智能语音助手到自动驾驶汽车,从机器翻译到智能医疗诊断,各类人工智能产品与服务广泛融入生产生活,显著提升工作效率与生活便利度。据中国信息通信研究院测算,2025年我国人工智能核心产业规模有望超过1.2万亿元。1截至2026年1月中旬,我国人工智能企业数量已超6200家,形成覆盖基础底座、模型框架、行业应用的完整产业体系。2人工智能用户规模也呈现出急速攀升趋势,截至2025年6月,我国生成式人工智能用户规模达5.15亿人,普及率为36.5%,仅上半年用户规模就增长了2.66亿人。3未来,人工智能将继续与各行业各领域广泛深度融合,重塑人类生产生活范式、促进生产力和生产关系深层次变革的同时,其用户权益保护也将成为各方关注的焦点话题。 (二)人工智能侵权形态多样,加大权益保护复杂性 伴随人工智能技术形态从算法模型向生成式人工智能、自主决策系统等复杂形态演进,新型应用场景层出不穷,用户侵权形态也呈现出多样化、复杂化的演进趋势,叠加技术应用本身的高度专业性与复杂性,进一步加大用户权益保护难度。一方面,人工智能应用引发的侵权风险频发,直接威胁用户的人格权、财产权、知识产权等核心权益,凸显用户权益保护的全局重要性与现实紧迫性。在一项覆盖全球 4.8万名受访者的人工智能应用调查中,有54%的受访者表达了对于人工智能带来的网络安全、隐私和知识产权、错误信息、人际关系与工作机会丧失等问题的担忧。另一方面,人工智能因算法决策自主化、侵权责任链条模糊化、损害后果跨域化等表现,对侵权责任主体界定、归责原则适用、责任承担方式等构成挑战。调查显示,面对人工智能的复杂影响,70%的受访者支持强化监管,但仅43%认可现有法律的充分性。4是沿用既往形成的法律适用逻辑,还是针对人工智能技术侵权的特殊性进行制度创新和解释,已成为破解当前司法争议频发、保障用户合法权益的关键议题。 (三)侵权影响后果持续深化,凸显权益保护全局性 人工智能技术对生产生活的高渗透性使得用户权益侵害从个体影响升级为阻碍产业良性发展、引发社会公平信任受损等系统性风险。人工智能技术的持续推广与深度应用,本质上依赖于用户对技术及相关服务的信任,各类侵权事件引发的公众担忧,已逐渐成为制约产业进一步发展的潜在隐患。由于技术的发展往往快于监管规则的制定,随着用户权益纠纷的不断增加,企业在运营中也面临合规范围与责任边界不清的困惑,阻碍其对人工智能技术的充分运用。此外,加强人工智能用户权益保护还是巩固社会信任与公平正义的必要举措。人工智能技术的大规模广泛应用对社会运行模式、资源分配方式乃至群体互动模式产生深远影响,其中偏见与歧视风险可能使弱势群体在资源获取上处于更不利地位。 二、人工智能用户权益范畴厘清 人工智能用户涵盖直接或间接使用人工智能产品或服务的全部主体,既包含政府、企业、高校等机构用户,也涉及广大个人用户,不同主体在应用人工智能过程中形成差异化的权益保护诉求和路径。由于相较于机构用户,个人用户在权益保护中往往处于弱势地位,且面临举证难、维权成本高的困境,与机构用户在权益保护的路径选择上也存在显著差异,本报告将人工智能个人用户权益作为核心分析对象。 作为人工智能产品与服务的终端使用者及消费者,人工智能用户权益侵害范围横跨人格权与公民权、民事权益、消费者权益等多个维度。在人格权与公民权层面,触及作为人格权核心的生命权、健康权等基础性权利,也深刻影响着肖像权、名誉权、隐私权等人格权益,以及平等权等宪法赋予公民的基本权利;在民事权益层面,主要包括财产权、个人信息与数据权益、知识产权等法定民事权益;在消费者权益层面,则集中体现在知情权、公平交易权、安全保障权等基本权利。人工智能技术所具有的数据驱动、算法决策等技术特性,使得用户权益面临的风险呈现出系统性、多源性特征。从源头的人工智能数据训练、到内容生成、自主决策,再到系统运行安全的各个环节,以及在医疗、金融、交通等不同应用场景中,用户权益都可能面临侵害。这种贯穿技术应用全过程的潜在风险,对现有用户权益保护体系提出了全新挑战。 三、国内外人工智能用户权益保护现状 (一)国际社会探索形成差异化用户权益保护路径 一是以美国为代表的市场自律模式,用户权益保护主要依靠联邦政策、各州立法、行业自律等共同作用。联邦层面,美国尚未出台综合性人工智能监管法案,但通过发布《人工智能权利法案蓝图》等政策文件,确立了安全可靠、算法公平、隐私保护等人工智能治理的指导性原则。值得注意的是,特朗普签署的行政命令《消除美国人工智能领导力障碍》废止了此前拜登政府颁布的人工智能监管行政命令,并于2025年7月配套发布《赢得AI竞赛:美国AI行动计划》,旨在为人工智能发展“松绑”,构建系统性战略优势,聚焦监管改革,通过优化审批、简化标准加速AI基建落地,激发私营部门活力,巩固美国在全球人工智能领导地位。美国国家标准与技术研究院(NIST)发布的《人工智能风险管理框架》,通过引导企业自愿开展人工智能合规管理,形成政府协调与行业自律的互动格局。 在联邦统一立法缺位的背景下,陆续出台的州立法成为人工智能用户权益保护重要力量。如2024年5月,科罗拉多州《人工智能法案》(SB24-205)作为全美首个综合性人工智能消费者保护法规,对高风险人工智能系统提出风险管理、影响评估等要求,并重点关注与人工智能系统互动中的消费者保护,禁止算法在就业、信贷等领域实施歧视;2025年10月,加利福尼亚州州长签署《陪伴型聊天机器人法》(SB-243),旨在约束人工智能在心理健康领域的滥用行为;针对AI聊天机器人运营商设定明确安全协议和法律责任,重点关注 对未成年人的保护;纽约州在2025—2026年间也推出了多项标志性法案,涉及人工智能伦理审查、生成式人工智能告知等方面,强化对用户权益的保护。 司法执法层面,美国联邦贸易委员会(FTC)依据《联邦贸易委员会法》等现有法律,对人工智能领域可能存在的侵犯消费者权益行为进行调查和追责。各州总检察长也可基于州消费者保护法发起针对人工智能的调查行动。2025年8月,美国得克萨斯州总检察长就公开宣布,对AI聊天平台MetaAIStudio和Character.AI展开调查,因其可能涉及欺骗性商业行为,并误导性地将自己宣传为心理健康工具。 二是以欧盟为代表的强监管模式,以法律强制约束为核心、实施统一监管的治理路径,筑牢权益保护底线。欧盟高度重视人工智能用户权益保护,2019年4月发布的《人工智能伦理指南》为欧盟人工智能的发展和治理确立了“以人为本”的基本原则。在用户权益保护方面,明确了尊重人类自主决策权、预防人工智能系统的伤害、实质性和程序性公平,以及算法可解释性等基本原则。 2024年8月1日生效的《人工智能法案》开启了欧盟人工智能强监管体系的建设,其中多项机制直接服务于用户权益保护目标,如保障人类监督与决策权、强化透明度与可解释性、确保技术可靠与安全。其后,陆续出台了《关于禁止的人工智能实践指南》《关于人工智能系统定义的指南》《通用人工智能行为准则》《通用人工智能模型供应商指南》等文件,凭借刚性约束和指南引导产业逐步构建起相 对完整的人工智能规则框架,并成立专门的人工智能监管办公室,用以确保有关举措在欧盟区域内统一实施。在国内转化方面,意大利已率先于2025年10月完成了《人工智能法案》的国内立法转化,不仅吸纳了欧盟法案的核心内容,还增设了针对利用人工智能,如深度伪造进行犯罪的刑事罪名。 三是以日本为代表的软法治理模式,核心在于灵活平衡产业创新与风险防控,通过柔性引导鼓励企业强化用户权益保护。顶层设计层面,日本《人工智能基本战略》经多轮修订,2025年配套出台首部人工智能专门法《人工智能相关技术研究开发及应用推进法》,确保人工智能技术研究、开发利用过程中的透明度基本原则,细化国家、地方政府、研发机构、运营商、公民等多方主体责任。提出国家应当收集国内外人工智能相关技术侵犯公民权益案件,并根据调查研究结果向研发机构、企业等提供指导建议。但整体以倡导和建议为主,并未设置处罚条款。行业自主规制层面,2024年4月总务省与经济产业省联合发布《人工智能运营商指南》,作为行业自律文件,虽无强制约束力,但明确了人工智能全生命周期的风险防控指引,覆盖数据处理、算法透明性、可追溯性等要求,适用范围包括跨境为日本市场提供服务的境外企业。 (二)我国统筹发展和安全建立人工智能治理体系 顶层规划明确用户权益保护任务部署。早在2017年7月,国务院《新一代人工智能发展规划》(以下简称“规划”)即提出人工智能治理的“三步走”规划,以2020年、20