您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[赛迪]:端侧大模型安全风险与治理研究 - 发现报告

端侧大模型安全风险与治理研究

信息技术2025-10-20赛迪棋***
AI智能总结
查看更多
端侧大模型安全风险与治理研究

赛 迪 研 究 院主 办 2025年10月20日总第59期4第期 本期主题 □端侧大模型安全风险与治理研究 『所长导读』 当前,以生成式大模型为代表的人工智能技术正以前所未有的速度融入经济社会各领域。在这一进程中,端侧大模型作为 AI 能力从云端向终端下沉的重要载体,以其本地化、低延迟、强隐私等特征,正逐步成为智能终端、工业物联网、智能家居等场景中的关键技术支撑。然而,端侧部署在提升用户智能体验同时,也带来了全新的安全挑战,亟需从技术、管理、法律等多维度系统研判与应对。 本报告聚焦于端侧大模型在部署与应用过程中所面临的安全风险,重点梳理其在智能手机个人助理、智能家居语音控制中枢、工业物联网边缘节点等典型场景下的功能特点与安全隐患。报告从数据安全、模型安全、算法安全三大层面深入剖析风险成因与影响,并结合国内外实践,提出构建涵盖法律法规、行业标准、企业内控与用户教育的综合治理体系。本报告旨在为政策制定者、行业从业者及广大用户提供端侧大模型安全治理的参考框架,推动在技术创新的同时筑牢安全底线,促进人工智能在端侧场景中健康、可信、可持续发展。由于研究涉及领域较新、内容广泛,报告中若有疏漏与不足,恳请各位读者批评指正。 赛迪研究院政策法规所(工业和信息化法律服务中心)所长 彭健2025 年 10 月 20 日 目 录目 录CONTENTS 本期主题:端侧大模型安全风险与治理研究 一、端侧大模型概述与发展现状……………………………………1 (一)端侧大模型的定义与核心特征欧盟…………………………………………1(二)端侧大模型的发展驱动力……………………………………………………2(三)端侧大模型的技术架构………………………………………………………4 二、端侧大模型典型应用场景分析…………………………………6 (一)智能手机上的个人助理………………………………………………………6(二)智能家居中的语音控制中枢…………………………………………………9(三)工业物联网中的边缘计算节点……………………………………………12 三、端侧大模型安全风险深度剖析………………………………15 (一)数据安全风险………………………………………………………………15(二)模型安全风险………………………………………………………………16(三)算法安全风险………………………………………………………………18 四、端侧大模型安全治理体系构建………………………………19 (一)法律法规与政策监管………………………………………………………19(二)行业标准与自律机制………………………………………………………23(三)企业内部安全管理…………………………………………………………25(四)用户教育与权益保障………………………………………………………26 五、结论与展望……………………………………………………28 (一)结论总结……………………………………………………………………28(二)未来发展趋势展望…………………………………………………………29 本期主题: 端侧大模型安全风险与治理研究 本地完成,而非依赖远程云端服务器。这种部署方式旨在克服云侧模型在实时性、数据隐私和网络依赖性等方面的固有局限。根据部署设备的不同,端侧大模型可以进一步细分为手机大模型、PC 大模型等,它们共同构成了端侧 AI 生态的核心。例如,vivo 推出的蓝心大模型和蔚来汽车的 NOMIGPT 大模型,都是端侧大模型在各自领域的典型应用。这种模型的出现,标志着 AI 技术正从集中式的云端服务向分布式的终端智能演进,旨在为用户提供更加即时、个性化且安全的智能体验。 一、端侧大模型概述与发展现状 (一)端侧大模型的定义与核心特征 1. 定义:部署于终端设备的大型人工智能模型 端侧大模型(On-deviceLargeModel)是指将经过优化和压缩的大型人工智能模型直接部署在智能手机、个人电脑、物联网设备、智能家居中枢以及工业边缘计算节点等终端设备上,使其能够在本地环境中独立运行和处理数据的人工智能系统。这种模型通常具备大规模参数,通过在海量数据集上进行无 监 督 学 习 并 进 行 有 监 督 微 调 得到,能够执行广泛的任务。与传统的云侧大模型(Cloud-based LargeModel)相比,端侧大模型的核心在于其“端侧部署”的特性,即模型的推理和计算过程主要在用户设备 2. 核心特征:本地化、低延迟、强隐私性 端侧大模型的核心特征主要体现在其本地化运行、低延迟响应和强化的隐私保护能力上。首先,本地化运行是其最本质的特征。模型 和数据均存储在终端设备上,推理过程无需将数据上传至云端,从而实现了完全的离线或弱网环境下的智能服务。这不仅降低了对网络带宽的依赖,也避免了因网络波动或中断导致的服务不可用问题。其次,低延迟响应是端侧部署带来的直接优势。由于数据处理在本地完成,省去了数据往返云端传输的时间,使得模型能够以极低的延迟(通常用 TTFT, 即 Time-to-First-Token来衡量)响应用户请求,这对于需要实时交互的应用场景(如语音助手、实时翻译)至关重要。最后,强隐私性是端侧大模型备受关注的价值所在。敏感的个人数据(如生物特征、聊天记录、健康信息)无需离开设备,从根本上减少了数据在传输和云端存储过程中被泄露或滥用的风险,更好地满足了日益严格的数据隐私法规(如 GDPR、个人信息保护法)的要求。这三大特征共同构成了端侧大模型的核心竞争力,使其在消费电子、智能家居、自动驾驶等领域展现出巨大的应用潜力。 (二)端侧大模型的发展驱动力 1. 技术驱动:模型压缩与硬件性能提升 端 侧 大 模 型 的 快 速 发 展 离 不开 两 大 关 键 技 术 的 进 步: 模 型 压缩技术和终端硬件性能的提升。一方 面, 模 型 压 缩 技 术 的 突 破 使 得在资源受限的终端设备上运行大模型成为可能。由于大型语言模型通常拥有数十亿甚至数千亿的参数,直接部署在内存和算力有限的终端设备上是不切实际的。因此,研究人员开发了多种模型压缩方法,主要 包 括 量 化(Quantization)、剪 枝(Pruning)、 模 型 蒸 馏(Distillation) 和 低 秩 分 解(Low-RankFactorization)等。量化技术通过降低模型参数的数值精度(如从 32 位浮点数量化到 8 位整数)来减小模型体积和计算量;剪枝技术则通过移除模型中冗余的连接或神经元来简化网络结构;模型蒸馏则通过一个大型、高精度的“教师模型”来指导一个轻量级的“学生模型”进行训练,使其在保持较高性能的同时显著缩减体量。这些技术的综合应用,使得原本庞大的 它可以持续学习和分析用户的行为习惯、偏好设置、日程安排等个人数据,而无需将这些敏感信息上传至云端。这使得 AI 助手能够提供高度定制化的服务,例如,根据用户的日常作息自动调节智能家居设备,或根据用户的阅读习惯推荐个性化内容。这种深度个性化是云侧模型难以实现的,因为后者通常处理的是脱敏后的、聚合的数据,难以捕捉到个体用户的细微特征。端侧大模型通过将 AI 能力下沉到设备,真正实现了“千人千面”的智能服务,极大地提升了用户体验。 模型能够被“瘦身”至适合在终端设备上运行的规模。 另 一 方 面, 终 端 硬 件 性 能 的持续提升为端侧大模型的运行提供了坚实的物理基础。以智能手机为例,其搭载的处理器(如高通骁龙系列、苹果 A 系列芯片)不仅在通用计算能力上不断增强,还集成了专门用于 AI 计算的神经网络处理单元(NPU)或 AI 加速器,极大地提升了设备端的 AI 算力。同时,内存容量和带宽的增加也为加载和运行更大规模的模型创造了条件。尽管与高端 GPU 相比,手机芯片在绝对算力上仍有较大差距,但其能效比的优化使得在功耗可控的前提下进行复杂的 AI 推理成为现实。硬件性能的提升与模型压缩技术的进步相辅相成,共同推动了端侧大模型从理论走向实践。 与此同时,数据隐私需求是推动端侧大模型发展的另一大关键因素。随着全球范围内数据隐私法规的日趋严格(如欧盟的 GDPR 和中国的《个人信息保护法》),以及公众隐私意识的普遍觉醒,用户对于个人数据被收集、传输和使用的担忧日益加剧。传统的云侧 AI 服务模式,需要将用户数据上传至云端进行处理,这在无形中增加了数据泄露和滥用的风险。端侧大模型通过在本地处理数据,从源头上切断了数据外泄的链条,为用户提供了一 2. 应用驱动:个性化体验与数据隐私需求 端侧大模型的兴起,深刻反映了用户对个性化智能体验和数据隐私保护日益增长的需求。在应用层面,个性化体验是端侧大模型的核心价值主张。由于模型在本地运行, 种更为可信的隐私保护方案。这种“数据不动,模型动”的模式,不仅符合法规要求,也迎合了用户对数据主权的诉求,成为厂商在激烈的市场竞争中构建差异化优势的重要卖点。 产业界已经深刻认识到端侧 AI的战略价值,并纷纷布局。各大手机厂商将端侧大模型作为其 AI 战略的核心,通过升级语音助手、优化影像处理等方式,提升产品竞争力。智能家居厂商则利用端侧大模型,让家居设备能够更好地理解用户意图,实现更加自然和智能的交互。在工业领域,边缘计算节点部署端侧模型,可以实现对生产数据的实时分析和预测性维护,提高生产效率和安全性。根据 IDC 的预测,到2025 年,中国 AIPC、AI 平板和 AI手机的出货量将显著增长,终端侧AI 功能将成为标配。这种产业层面的广泛布局和应用,不仅为端侧大模型提供了丰富的应用场景和市场需求,也反过来推动了相关技术的快速迭代和成熟,形成了一个良性的产业发展闭环。 3. 产业驱动:AIoT 生态的蓬勃发展 端侧大模型的发展与 AIoT(人工智能物联网)生态的蓬勃发展紧密相连,二者相互促进,共同构成了产业智能化的核心驱动力。AIoT的核心愿景是实现万物互联和智能交互,而端侧大模型正是实现这一愿景的关键技术。在 AIoT 生态中,数以百亿计的设备(如智能家居、可穿戴设备、工业传感器)需要具备感知、理解和决策的能力。将这些设备全部连接到云端进行处理,不仅会带来巨大的网络带宽压力和延迟问题,还会引发严重的数据隐私和安全挑战。端侧大模型通过在设备端部署智能,使得每个设备都能成为一个独立的智能节点,能够自主地进行数据处理和决策,从而构建一个更加高效、可靠和安全的分布式智能网络。 (三)端侧大模型的技术架构 1. 模型部署与运行框架 端侧大模型的部署与运行框架是实现其在终端设备上高效、稳定运行的基础。这一框架通常涉及模型优化、运行时环境和硬件加速等多个层面。首先,在模型优化方面, 为了在资源受限的终端设备上部署大模型,必须采用一系列模型压缩技术。这包括量化,将模型参数从高精度浮点数转换为低精度整数,以减小模型体积和计算开销;剪枝,移 除 模 型 中 不 重 要 的 权 重 或 神 经元,简化网络结构;以及知识蒸馏,利用大型教师模型指导小型学生模型进行训练,使其在保持性能的同时大幅缩减规模。这些优化技术共同作用,将庞大的云端模型“瘦身”为适合端侧部署的轻量级模型。 采取代码签名和完整性校验技术,确 保 模 型 在 启 动 和 运 行 时 的 机 密性、完整性和可用性。 2. 端云协同机制 尽管端侧大模型强调本地化运行,但在实际应用中,纯粹的端侧部署往往难以满足所有复杂场景的需求。因此,端云协同成为当前端侧大模型技术架构的主流模式。这种模式结合了端侧的低延迟、强隐私优势和云侧的强大算力与海量数据优势,形成一个互补的智能系统。典型的端云协同架构通常包含三个关键组件:部署在终端的轻量级模型、位于云端的大型模型以及连接二者的协同机制。 其次,运行时环境为模型在终端设备上的执行提供了必要的软件支持。这通常包括一个轻量级的推理引擎,负责加载模型、管理内存、调度计算任务等。为了充分利用终端 设 备 的 硬 件 资 源, 推 理 引 擎 需要与底层的硬件加速器(如 NP