您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [绿盟科技]:2026网络安全趋势 - 发现报告

2026网络安全趋势

信息技术 2026-04-29 绿盟科技 章嘉艺
报告封面

到2026年,随着生成式AI与自主智能体全面渗透网络攻防体系,网络空间正进入“智能对抗智能”的军备竞赛阶段。网络攻防形态已不再是“人对系统”或单纯的自动化工具对抗,而是由具备自主感知、推理与执行能力的智能体主导的竞争。这标志着网络安全进入以算法能力、数据理解与自主决策效率为核心的新一轮竞争周期,攻防博弈的重心已从规则与工具之争转向智能能力体系之间的全面对抗。 生成式AI与自主智能体正在深刻重塑网络攻击范式。攻击活动不再依赖人工离散操作,而演进为AI主导的决策、执行与持续优化体系。以AI驱动的商务电子邮件欺诈(BEC)、鱼叉式钓鱼和僵尸网络为代表,攻击者借助大语言模型实现语态模仿、零样本学习及多模态欺诈(文本、图像、音视频),显著削弱基于规则、特征与人工经验的传统检测能力。同时,黑灰产生态加速平台化与SaaS化发展,WormGPT、FraudGPT、SpamGPT等“攻击即服务”工具将身份伪装、诱饵生成、传播调度与会话接管高度集成,系统性降低高水平攻击的技术门槛。更为严峻的是,AI正逐步演变为攻击链条的“核心大脑”,能够自动解析海量业务数据,构建组织知识图谱,自主识别高价值目标并生成最优攻击策略,使网络犯罪从“劳动密集型”转向“智能决策驱动”的工业化模式。 在此背景下,APT组织成为AI攻防变革的先行实践者。自2025年以来,APT组织已系统性将生成式AI与大语言模型(LLM)融入整个攻击链条,从侦察、资源开发、初始访问、数据收集到命令控制(C2),实现全链路智能化作战能力的落地。其技术路径主要呈现两条:一是使用不受安全约束的定制恶意模型(如WormGPT、Hexstrike-AI、KawaiiGPT)生成攻击代码、钓鱼诱饵和欺诈内容;二是采用提示词工程、角色扮演等方式诱导主流模型绕过安全机制,间接获取攻击能力。这两条路径互为补充,使APT攻击在效率、规模与持续性上获得系统性放大,显著提升攻击链条的整体智能化水平。 面对高度智能化与全链路自动化的攻击态势,传统静态规则、防火墙及基于特征的检测已难以有效应对。防御体系必须完成从“自动化防御”向智能化、主动化与动态化的系统性跃迁。通过算法、数据与实时决策能力,系统可对攻击链条进行预测、模拟与干预,形成完整攻防闭环。AI驱动的检测、响应与策略决策体系协同运作,使防御能力能够匹配APT攻击的速度、复杂度与适应性。 在这一体系中,智能化对抗性暴露面验证(AEV)必须与AI深度融合,将传统静态验证工具升级为面向真实威胁环境的动态对抗能力,融入感知、推理与决策功能,并与检测、响应及策略体系协同演进,共同构建支撑智能防御决策的综合生态。 总体来看,在生成式AI推动网络攻防迈入“智能对抗智能”的背景下,APT组织率先完成从人工驱动攻击向智能驱动作战的转型,成为智能化攻击能力最早落地、最具实战威胁的攻击主体。未来,高强度、高对抗的网络安全博弈将首先在APT领域呈现全链路智能化、持续演进的对抗形态,同时也倒逼防御体系同步迈入智能化、主动化与动态化的新阶段,才能在新一轮“智能对抗智能”的博弈中维持有效防护能力。 二.趋势2:【Botnet】代理型僵尸网络的兴起与威胁情报体系的范式危机。 2026年,代理型僵尸网络的激增将导致传统的IOC可靠性面临大规模失效的风险。僵尸网络的对抗史,本质上是一部围绕命令与控制核心隐匿与发现的攻防史。传统架构如同一个“中心辐射”模型,僵尸主机直接连接至一个或数个明确的C&C服务器。这种模式的弱点清晰可见——防御者一旦通过流量分析或样本逆向定位到核心服务器,便能实施“斩首行动”,瘫痪整个网络。然而,近年以来,攻击者逐步完成一些关键的战术跃迁,推动僵尸网络向“代理型”架构演进。其核心设计哲学是将攻击者的身份与行踪,彻底溶解在一个庞大、合法且动态的中间层中。 1.代理型僵尸网络急剧发展,充当隐匿基础设施 绿盟科技伏影实验室监测数据显示,近年来代理型僵尸网络呈现逐步增多的趋势。此类恶意家族可进一步分为两种主要类型:早期出现的代理型僵尸网络家族,其核心功能以实施DDoS攻击为主,内置的代理模块主要用于隐藏自身的C&C基础设施。而自2025年以来,纯代理型僵尸网络开始日益凸显,其功能高度聚焦于流量转发,在网络中充当路由中转节点。这一趋势表明,攻击者的目标已不再局限于隐蔽自身的C&C基础设施,而是逐步转向扮演网络流量中转的底层基础设施构建者,为其他恶意软件提供流量隐匿的基础服务。 2025年以来,以PolarEdge为代表的“代理型”僵尸网络急剧发展,为了实现代理节点的大批量部署,部分攻击者在实施过程中甚至无视部署活动对外产生的“噪声”,大张旗鼓地“攻城略地”。2025年9月底,绿盟科技伏影实验室监测并命名了一个名为“Containerbot”的新型僵尸网络家族,该家族是一个典型的代理型僵尸网络家族。该木马具备打包合并任意载荷和分发投递各组件的双重功能,木马本体附带了多个反向代理组件,这些组件在用户和目标服务器之间充当信息中转站,对外发起攻击时能 有效隐藏攻击来源。此外,从监测到的指令来看,攻击者还在服务端部署了自动化扫描和垃圾邮件发送组件。 2.深层隐匿,威胁情报体系面临溯源危机 代理型僵尸网络的兴起标志着僵尸网络架构正从易于追踪的中心化模式,向多层、动态的代理转发模式系统性演进。这种架构的根本性变革,旨在将真实的命令与控制服务器深藏于由海量被劫持设备构成的“代理迷雾”之后,导致传统的基于静态指标(IoC)的威胁情报在溯源、阻断和归因层面面临近乎失效的严峻挑战,迫使网络安全防御思维必须从“封锁节点”转向“洞察链路”。 这类代理型僵尸网络的崛起,标志着一场不对称战争的升级。防御方不能再依赖“发现-标记-阻断”的静态、反应式剧本。攻击者通过精妙的架构设计,成功地将自己隐藏在由受害者和商业基础设施构成的“合法迷雾”之中,倒逼安全社区必须从追踪孤立的“恶意资产”,转向理解复杂的“行为关系”与“动态威胁图谱”。 僵尸网络乃至整个网络犯罪基础设施的发展方向正在进行一次深刻的变革:从追求直接破坏,转向构建深度的隐匿能力和基础服务能力。这场由攻击者发起的架构革命,正使基于“黑名单”和“指纹库”的传统防御逻辑逐步失灵。代理型僵尸网络的兴起,标志着网络攻防进入一个更复杂的“中间层战争”时代。胜利将不再属于拥有最长IoC清单的一方,而属于能最先从纷繁复杂的网络流量中,识别出那条若隐若现的“代理链路”并理解其恶意意图的一方。这要求整个行业在技术、数据和协同方式上,进行一场深刻的范式转移。 贯穿全链路的AI安全围栏将成为守护AI 当前,人工智能技术正处于从“对话辅助”迈向“自主决策”的关键跃迁阶段。基于大语言模型(LLM)的AI应用已经突破基础指令问答的范畴,进化为具备复杂认知推理、战略决策能力及环境感知力的“数字智能体”。这一技术范式的革新,主要由上下文工程及多工具协同技术的成熟所驱动。在此驱动下,智能体正深度嵌入金融、医疗、能源等核心领域,持续推动生产模式的系统性变革。据最新预测表明,这一趋势将加速规模化:到2028年,企业软件中整合自主型AI的比例将从2024年的不足1%跃迁至33%,届时超过15%的日常工作决策将交由AI智能体自主完成①。 然而,随着智能体被赋予API联动、外部系统操作及自主任务规划等高级权限,技术能力的跃升也导致了威胁面的同步扩张与质变。安全对抗的焦点正从传统的“内容生成层面”迅速向“系统行为和决策层面”转移。与早期攻击者仅通过“语义诱导”促使模型生成违规内容的提示词越狱(Jailbreaking)不同,2026年的安全态势呈现出更为严峻的态势:攻击者已将越狱视为突破防御边界的跳板,其核心目标升级为通过滥用智能体的工具权限,实现对底层应用漏洞的精准利用。 自2025年以来,AI安全事件呈现新形态、高频率的爆发趋势。2025年5月,GitHubMCP跨仓库的数据泄露漏洞,攻击者通过劫持开发者本地AIAgent,窃取私有仓库源代码、密钥等敏感数据;2025年7月,恶意MCPServer出现,针对大模型IDECursor的安全攻击事件造成攻击者可随意篡改和窃取代码、凭证、操纵Cursor等;2025年8月,AI浏览器Comet曝出提示词注入漏洞,攻击者在用户无感知的情况下盗取账号;2025年11月,攻击者利用AI辅助生成攻击脚本,导致全球23万台暴露公网的RayAI计算集群被攻陷。 这些事件共同表明,安全对抗已从传统的软件漏洞攻防,升级至多模态环境交互与自主智能体决策层面的系统性攻防。 面对技术革新和其带来的安全风险挑战,绿盟科技早在2024年,就开始孵化了AI安全围栏(AI-GR),以实现对AI系统的全流程约束与韧性防护,旨在为构建可信赖的智能化业务环境提供坚实保障。面对技术革新与安全风险的同步升级,绿盟科技前瞻布局,已于2024年率先孵化和构建了AI安全围栏(AI-GR)体系,旨在通过对AI系统的全流程约束与韧性防护,为构建可信赖的智能化业务环境提供坚实保障。 未来,攻击者的矛头将从人类员工转向拥有关键API调用权、数据访问权及系统特权的智能体。一旦通过提示词注入或工具滥用等手段成功“策反”,这些原本被视为助手的智能体瞬间转化为攻击者可远程操控的“恶意内部员工”,直接执行数据窃取或破坏任务。这种从“模型说什么”到“模型做什么”的风险跨越,正对企业核心资产的机密性、完整性与可用性构成前所未有的直接威胁。 这一威胁面与风险等级的同步质变,迫使AI自身安全治理必须突破传统的内容防御边界,推动风险评估与防御体系的深度协同,加速向以智能体行为管控为核心的新一代全链路治理体系进阶,AI安全围栏将成为未来AI自身安全的第一道安全防线。 (一)AI安全评估 对比2024年,AI红队通过部署私有大模型系统和应用,系统性发现和评估大模型安全风险,主要聚焦中静态的内容合规审查方面,随着大模型应用,AIAgent技术的迅猛发展和成熟应用,未来的AI安全评估将从静态的内容合规审查,向聚焦于对抗性测试与自动化智能体行为审计的新范式演进。 智能体应用风险的质变趋势已在2025年的典型安全事件与高规格竞赛中得到验证。以Manus代码泄露事件①为例,攻击者利用其在文件读取与工具调用上的验证缺失,通过构造特定的攻击指令成功突破限制,直接窃取了核心源代码。这一风险的普遍性在GraySwanAI主办的全球最大规模智能体红队 挑战赛(AgentRedTeamingChallenge)①中得到了进一步量化证实:在针对22个前沿大模型智能体的44个真实部署场景测试中,参赛者提交了180万次提示词注入攻击,成功诱导智能体执行了超过6万次策略违规操作。数据揭示了一个严峻现实挑战,即几乎所有参测智能体在多轮交互中均表现出策略违规的情况,攻击者仅需利用间接提示词注入等手段,即可轻易绕过防御,诱导智能体执行未授权数据访问或非法金融操作。 当下AI自身安全主要由监管驱动,聚焦于内容合规与数据隐私的静态安全评估体系已显得捉襟见肘。未来AI自身安全评估必须紧扣行为风险这一核心变化,向AI红队驱动的动态全链路评估转型。传统的合规性检查将不再是评估的终点,评估重心将转移至高强度的实战攻防演练。这要求需要建立模拟从攻击者植入恶意指令-智能体错误推理-调用敏感工具-执行破坏操作的完整攻击链路,重点检测智能体在面对复杂攻击时的行为边界与上下文的抗干扰能力。值得注意的是,GraySwan的竞赛结果显示,模型的参数量或推理能力与安全性之间并不存在正相关关系,更强的模型反而可能因遵循指令能力过强而更容易被利用。因此,未来的评估将高度依赖自动化AI红队工具,利用对抗性模型生成海量变异攻击样本,对智能体的每一次API调用、文件读写进行持续的压力测试,确保在高频度的攻击下,智能体的行为始终不偏离安全基线,构建新一代的AI自身安全风险评估体系。 (二)AI安全防御 AI安全防御,从静态检测规则过滤向语义意图识别与多源风险关联的主动防御演进。 当前的AI防御仍主要依赖安全围栏与静态规则体系。安全