您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [百度]:AI基础设施安全白皮书 - 发现报告

AI基础设施安全白皮书

信息技术 2025-08-27 百度 张博卿
报告封面

AI INFRASTRUCTURE SECURITYWHITE PAPER INTRODUCTION 聂科峰杜海王佩龙郑然宋飞杨阳包沉浮张洪海 引言介绍 编写组:百度安全林道正刘杰文炜韩长青程波曾远赵飞飞应蕊吴贵荣李志伟孙禹季石磊王建奎刘琳琳韩冲吴琼林孟贤曾华伟温慧媛 百度混合云李兆彤史磊李玉双李阳谢伟光王发崔凯王晓珂杨正魏谦孙召增马建英田晓利徐浩陈瑛雷赵志伟滕阳阳袁穆 随着人工智能技术的飞速发展,AI基础设施已成为推动产业智能化变革的核心支撑。作为承载海量数据处理、模型训练与推理任务的关键底座,其安全性直接影响人工智能应用的可靠性与可持续发展。近年来,各行业对算力的需求呈现爆发式增长,构建高效、安全、可靠的AI基础设施,已成为保障人工智能技术大规模落地的重要前提。 在这一背景下,百度积极协同客户,在全国多个地区成功部署了大规模万卡级别的AI算力集群。基于丰富的实际建设与运营经验,本白皮书立足AI基础设施在架构设计、安全防护、合规运营与持续迭代等方面的现实需求,全面梳理并阐述了经过实践验证的体系化安全解决方案与实施路径,旨在为行业提供具备参考价值的方法论与实践指南。 文心一言4.5 结合近两年最新安全事件与政策法规,深入解读AI基础设施的安全趋势与合规要求,为算力集群安全建设提供前瞻性指引;分享在万卡级AI算力集群中的安全防护实践,涵盖模型应用安全、数据隐私保护与合规落地等方面的实战经验;系统介绍覆盖规划设计、建设实施、运营管理及迭代优化的全生命周期安全框架,包括关键安全技术路线与综合管理策略。 通过本白皮书,读者将全面了解AI基础设施所面临的核心安全风险与应对措施,为构建安全、可信、合规的AI基础设施提供有力支撑。 CONTENTS 目录 02 06 05 01 百度AI基础设施安全架构 百度AI基础设施安全管理与运营 百度AI基础设施安全实践案例 行业背景政策与技术发展趋势 2.1 AI基础设施安全架构介绍2.2 AI基础设施云平台安全2.3 AI基础设施云服务安全2.4 算力调度平台安全 1.1 行业背景与安全挑战1.2 国家政策法规解读1.3 技术前沿趋势1.4 AI基础设施安全风险洞察 6.1 某地方万卡集群算力中心安全建设案例6.2 某广电AIGC平台安全建设案例6.3 某头部移动设备厂商大模型内容安全建设案例 5.1 AI基础设施安全运营管理5.2 安全运营成功的关键点5.3 持续运营改进与业务保障 07 03 04 百度AI基础设施大模型应用安全 百度AI基础设施安全合规 总结与未来展望 4.1 AI基础设施合规需求分析4.2 AI基础设施大模型安全合规4.3 AI基础设施等保密评合规实践 3.1 大模型安全护栏建设3.2 大模型数据安全建设3.3 大模型安全评测能力建设 7.1总结7.2 未来展望 01 1.1 行业背景与安全挑战 当前,全球数字经济进入以人工智能为核心驱动的新阶段。融合算力中心作为新型基础设施的核心载体,正处于从规模扩张到质量提升的关键转型时期。在国家“十四五“数字经济发展规划与“东数西算”工程战略指引下,我国算力中心建设呈现三大特征: 一是政策驱动显著,2025年智能算力规模预计突破1000EFLOPS,地方政府通过专项补贴、产业基金等政策加速布局;二是智能化需求爆发,驱动大模型算力需求指数级增长,推动AI芯片、分布式存储等技术迭代优化,进而实现算力效率提升与成本下降;三是应用场景深化,智慧电网、自动驾驶、智慧港口等垂直领域加速算力下沉,边缘计算市场规模预计2028年达到132亿美元(IDC, 2023)。 行业背景政策与技术发展趋势 然而,在快速发展的背后,安全风险日益凸显。 在合规层面,数据跨境流动、大模型应用备案、算法备案等监管要求持续收紧,2024年《生成式人工智能服务管理暂行办法》的实施,对算力中心的数据治理与模型合规提出更高标准;在云平台层面,多云架构的复杂性导致API接口暴露、权限管理失控等问题频发,某头部运营商2024年因云平台漏洞导致的安全事件同比增长65%;在大模型层面,提示词注入、模型窃取、数据投毒等新型攻击手段涌现,某开源社区2025年监测到针对大模型的恶意样本数量突破200万例。 1.1 行业背景与安全挑战1.2 国家政策法规解读1.3 技术前沿趋势1.4 AI基础设施安全风险洞察 诸如此类事件层出不穷。为此应构建AI基础设施一体化安全防护框架,涵盖合规体系构建、物理设施防护、云原生安全保障、模型应用安全防护等核心模块,为政企用户提供可落地的安全实践指南,助力行业在算力革命中筑牢安全底线。 1.2 国家政策法规解读 随着数字经济的深度发展,信息基础设施的重要性凸显,网络安全已成为国家安全的重要组成部分,相关法律法规体系也愈发完善;通过对近些年出台的网络安全法律法规,以及AI基础设施建设的各类指导意见的分析,我们梳理出当前AI基础设施建设中安全相关的政策法规主要有: 强化数据安全保护能力 《中华人民共和国网络安全法》2017年6月施行 《网络安全法》规定了网络运营者需履行安全保护义务,强调了对关键信息基础设施的重点保护,以及监测预警和应急处置制度。压实AI基础设施安全建设的必要性,对于违反网络安全规定的行为,规定了相应的法律责任,包括警告、罚款、没收违法所得等。 加强数据分类分级保护,根据监管要求对重要和核心数据实行精准严格管理。制定数据全生命周期安全防护要求和操作规程,配套建设数据安全风险监测技术手段,加强数据安全风险的分析、研判、预警和处置能力。 强化产业链供应链安全 加强产业链协同联动,逐步形成自主可控解决方案,鼓励算力基础设施,采用安全可信的基础软硬件进行建设,保障供应链安全。加强关键技术研发和创新,提升软硬件协同和安全保障能力。依托一体化算力应用安全保障体系,形成“云网边端”安全态势感知和网络协同防护能力。推动智能化分析和决策在未知安全风险自主捕捉和防御环节的应用,持续提升算力安全保障能力。 《中华人民共和国密码法》2020年1月施行 《密码法》及《商用密码管理条例》规范了密码应用,AI基础设施作为关键信息基础设施时,应当使用商用密码实施保护,制定商用密码应用方案,配备必要的资金和专业人员,同步规划、同步建设、同步运行商用密码保障系统,自行或者委托商用密码检测机构开展商用密码应用安全性评估。 保障算力设施平稳运行 《中华人民共和国数据安全法》2021年9月施行 《数据安全法》强调数据全生命周期的安全保护,要求AI基础设施运营者对数据进行分类分级管理,采取加密传输、存储等措施保障数据安全。在数据采集环节,需遵循合法、正当、必要原则;在数据使用环节,要严格控制数据访问权限,防止数据滥用。 强化算力网络保障,对重要网络设施采用双节点、双路由配置,避免出现单点故障。加强物理设施保护,定期开展巡查巡检,制定应急预案,提高应急处置能力。对重要系统和数据,建立热备双活机制,应用仿真灰度测试、混沌工程等新技术,发掘并消除软件系统潜在隐患。 《关键信息基础设施安全保护条例》2021年9月施行 云安全 《关键信息基础设施安全保护条例》规定运营者应当落实网络安全等级保护制度要求,在网络安全等级保护的基础上,对关键信息基础设施实行重点保护,AI基础设施中的很多部分都属于关键信息基础设施范畴,需要参照。 CASB(云访问安全代理)深化应用 随着企业多云、混合云战略普及,CASB作为云安全核心组件,通过实时监控云服务访问行为,强制执行数据加密、访问控制及合规策略,与AI技术结合后,可自动识别异常访问模式(如非授权数据导出),并联动威胁情报实现动态防护,成为企业上云安全的关键屏障。 《生成式人工智能服务管理暂行办法》2023年8月施行 《生成式人工智能服务管理暂行办法》旨在促进生成式人工智能健康发展和规范应用,对AI基础上设施中生成式人工智能服务的研发、提供、使用等环节进行全面规范,强调安全评估、算法备案、标识管理等要求,防范生成式人工智能服务安全风险。 CNAPP(云原生应用保护平台)全生命周期防护 针对云原生架构(容器、Serverless、微服务)的复杂性,CNAPP通过与DevOps流程无缝集成,实现“左移”安全(开发阶段嵌入安全控制)和“右移”防护(运行时实时监测),有效应对云原生环境特有的配置错误、漏洞利用及供应链攻击风险。 CSPM(云安全态势管理)持续观测 云平台安全的态势情况,采用API无代理方式持续发现与盘点云资产,结合AI与图谱分析,CSPM可识别配置漂移与潜在攻击路径,依据业务重要性与暴露面做风险分级与处置优先级排序。 1.3 技术前沿趋势 AI安全 AI技术在安全防护中的应用 AI基础设施安全体系要求 基于机器学习与神经网络的AI算法,能对海量安全数据进行实时分析,建立正常行为模型,快速准确识别异常行为,像通过分析网络流量数据发现潜在的DDoS攻击、恶意软件传播等威胁,且可自动学习适应变化的安全威胁,提升检测准确性与及时性,减少人工误判。同时,随着OpenAI ChatGPT与微软的Security Copilot发布,基于Transformer架构的大语言模型被引入更多安全业务场景,如恶意邮件检测、安全事件研判、恶意软件分析等,在防护效果和检测性能上有显著突破,有效解决传统机器学习和深度学习的瓶颈。 增强网络安全保障能力 严格落实网络安全法律法规要求,开展通信网络安全防护工作。强化安全技术手段建设,加强对网络流量、行为日志、数据流转、共享接口等安全监测分析,推动威胁处置向风险预警和事前预防转变,建立威胁闭环处置和协同联动机制,提升威胁处置科学性、精准性和时效性。 02 AI算法与模型自身的安全防护 针对不同AI业务场景,AI算法面临多种攻击威胁,例如图像识别业务遭遇对抗样本攻击和深度伪造攻击,AI问答业务面临提示词注入、越狱及数据泄露攻击。这要求模型生成时考虑鲁棒性,并配合体系化安全对齐机制实现算法层面的安全加固。而模型作为企业知识产权的沉淀,其自身保护至关重要,尤其在AI模型轻量化趋势下,终端模型或私有化模型在各业务场景中日益普遍,需通过可信计算、代码混淆、加密、访问控制和权限管理等安全技术,对模型分发进行全方位保护。 Al数据的安全保障 数据是AI业务的基石,也是攻击者重点关注的切入点,常见攻击包括数据投毒、数据泄露等,比如大模型训练阶段引入错误价值观内容,或数据流通过程中发生泄露。为此,需针对AI业务数据生命周期各阶段布置安全保护措施,如进行数据内容清洗、脱敏、加密存储与使用审计,形成“预防 - 检测 - 响应”闭环,确保数据在训练、推理及迭代各环节均符合数据安全与合规要求。 百度AI基础设施安全架构 1.4 AI基础设施安全风险洞察 2.1 AI基础设施安全架构介绍2.2 AI基础设施云平台安全2.3 AI基础设施云服务安全2.4 算力调度平台安全 数据算力安全风险:高价值目标暴露 AI基础设施作为智能时代的算力枢纽,其稀缺的算力资源与海量敏感业务数据,成为攻击者眼中的“高价值猎物”。算力的稀缺性,使其在数字经济生态中具备战略价值,而存储的敏感数据(如政务机密、企业核心业务信息、用户隐私等),关乎组织与个人权益。AI业务场景下的算力薅羊毛,用户数据倒卖成为灰色产业的新套利点,使得攻击者持续对AI基础设施发起探测与攻击,从网络渗透、漏洞利用到暴力破解,试图突破防护边界,一旦得手,将引发数据泄露、算力劫持等重大安全事件,威胁业务稳定与数据主权。 模型技术安全风险:迭代中的安全滞后 当前AI技术迭代迅猛,新产品、新技术层出不穷,但安全建设常跟不上创新节奏。在模型开发与应用环节,安全易被忽视:一方面,快速迭代导致安全检测、验证环节压缩,模型可能存在算法漏洞、逻辑缺陷;另一方面,模型推理易输出违规内容,如暴力、色情信息等,既违反法律法规,也会对用户、社会造成不良影响。这种安