——轻量级多Agent协同与实战复盘 演讲人AI小分队 About me AI小分队 我们来自绿盟科技运营服务BG高级攻防部,致力于将实战攻防能力往自动化、智能化方向演进。拒绝纸上谈兵,以代码为剑,探索大模型在实战攻防中的真实边界。 PART 01高效集群策略 PART 02智能纠偏机制 PART 03实战效果与反思 PART 01 高效集群策略 Agent整体架构 以轻量化协作,释放“Agent团队”的无限潜力。 告别信息孤岛,共享记忆赋能Agent群体智慧。 在单Agent能力的基础上,把原本独立的计算单元,组织成了一个具备基本学习与协同能力的整体系统。 Agent架构设计:效率优先 面临的困境 面对多目标且攻击时间严格受限的场景,复杂的“集中式规划”智能体易成为性能瓶颈。 我们的选择 采用多Agent独立解題模式,单兵作战,弱耦合协作,实现“分布式并行推理”。 并行探测:多个Agent同时对不同靶场进行作业。独立上下文:每个Agent拥有独立的思考过程,避免上下文失真,最大化探索速度。简易架构:结构简单,易于拓展,具备多模型异构能力 核心优势 通过高并发策略弥补单点能力不足,最大化靶场覆盖率与试错效率,且天然实现故障隔离。 集群协作机制:基于“笔记本”的非阻塞知识协作 知识共享机制 Agent在独立解题的同时,通过共享的“笔记本”交换关键信息,如成功路径、有效Payload和失败尝试。 机制优势 保障Agent独立性,避免集中式架构的通信和协调开销异步、非阻塞。避免了为直接对话消耗大量Token,实现了低成本的静默协同状态恢复,为后续的“状态重置+记忆回注”机制提供关键信息摘要 “知识协作机制"在保证Agent独立性的同时,实现了集体智能的涌现。 集群协作机制:基于“笔记本”的非阻塞知识协作 知识共享机制 Agent在独立解题的同时,通过共享的“笔记本”交换关键信息,如成功路径、有效Payload和失败尝试。 机制优势 保障Agent独立性,避免集中式架构的通信和协调开销异步、非阻塞。避免了为直接对话消耗大量Token,实现了低成本的静默协同状态恢复,为后续的“状态重置+记忆回注”机制提供关键信息摘要 “知识协作机制"在保证Agent独立性的同时,实现了集体智能的涌现。 智能纠偏机制PART 02 Agent防长止下文降智与快速恢复机制 困境:LLM在长轮次对话后,会出现逻辑混乱、重复、遗忘初始目标的“认知退化”现象。 在LLM推理过程中,会记录重要的线索写入到共享记忆中,重置上下文后,会把关于该题目的重要信息放入初始上下文中,快速恢复继续深度推理解题。 Agent如何防止智能体陷入思维定式 策略一:工具调用防沉迷 策略二:路径依赖防固化 困境: 困境:LLM会沉迷于重复调用同一个工具(尤其是 Agent可能将正确的方向错误地标记为“试错”并记入笔记,误导后续尝试。 curl),来低效的测试。 解决:在同一道题被获取N次后,强制清空该题笔记,防止路径依赖。 检测并限制同一命令的连续调用次数,触发限制后,hook工具调用结果,返回干预指令,打破循环。 PART 03 实战效果与反思 核心数据看板 成本效益 11,012总循环轮次 1,012纠偏成功 ¥13.22/题 ¥1057.8 LLM总调用成本 平均解题成本 高强度自主运行与自我修复能力验证。 有限资源内实现效能最大化。 异构模型表现 组合策略:以DeepSeek为成本效益主力,Kimi负责攻坚复杂难题,实现整体效能最大化。 简单架构在实战中仍然有高竞争力 在目前渗透测试场景下,简单架构在实战中仍然有较高竞争力 简单架构+强效控制=好的工程实践 让Agent在真实、复杂、无人值守的环境中稳定可控的推理。 总结与思考 阶段性结论:针对赛事特点设计的“轻量级高并发”群策Agent架构,在覆盖速度与并行探索上具备竞争力。 稳健型:“防降智、防沉迷、防依赖”三大纠偏机制,提升了稳定性,但引入调参成本。 不足与计划:长链推理仍弱;将推进阈值自适应、资源感知调度、知识可信度与人机协同。 THANKS 演讲人ai小分队