AI智能总结
技术雷达 针对当今科技领域发展的前沿指南 第33期2025年11月 关于技术雷达雷达一览贡献者制作团队人员本期主题本期雷达本期雷达本期雷达技术平台工具语言和框架 345679101112222937 关于技术雷达 Thoughtworkers始终对技术怀有炽热激情。我们致力于构建技术、开展研究、实施测试、推动开源、撰写洞见,并不懈追求技术的持续优化――这一切努力皆以普惠大众为宗旨。我们的使命是倡导软件卓越理念,引领信息技术革命。为此,我们创建并持续分享Thoughtworks技术雷达,将其作为实现这一使命的重要载体。 Thoughtworks技术顾问委员会――由公司资深技术领袖组成的核心团队――负责技术雷达的编撰工作。该委员会定期召开会议,深入探讨Thoughtworks全球技术战略,以及对本行业产生深远影响的技术趋势。技术雷达以高度凝练的形式,系统呈现技术顾问委员会研讨成果,旨在为从开发者至首席技术官等广泛利益相关方提供价值参考。 我们诚挚邀请您共同探索这些前沿技术。技术雷达采用可视化设计,将技术要素划分为四大象限:技术、工具、平台以及语言与框架。对于可能跨象限分布的技术条目,我们依据其核心属性进行精准归类。同时,通过四个同心环的布局设计,清晰展现我们对各项技术当前所处发展阶段的专业判断。 如需获取技术雷达的更多背景信息,请访问thoughtworks.com/cn/radar/faq 雷达一览 技术雷达的核心使命是追踪具有价值的技术动向,我们将其定义为技术脉冲。本雷达通过两大核心维度对技术脉冲进行系统化组织:象限与评估环。技术象限区分技术脉冲的领域属性,评估环则体现我们对各项技术的应用建议层级。 技术脉冲指在软件开发领域产生影响力的技术或方法。这些脉冲始终处于动态演进之中――其在雷达图谱中的位置会持续变化――通常随着评估环的递进,标志着我们对其推荐力度的逐步增强。 采纳:我们坚定认为行业应当广泛采用此类技术。在项目条件适配时,我们会优先应用这些技术。 试验:具备显著探索价值。建议重点构建相关技术能力,企业可在风险可控的项目中开展实践验证。 评估:值得进行深度调研,重点评估其对组织产生的潜在影响。 暂缓:建议采取审慎态度对待技术应用。 技术雷达具有前瞻导向性 。为保持内容时效性,我们对近期未发生位移的技术条目进行视觉淡化处理,此举并非否定其技术价值,而是受限于雷达版面的空间约束 。 贡献者 技术顾问委员会(Technology Advisory Board,简称TAB)由22位资深技术专家组成,是Thoughtworks技术治理体系的核心智库。该委员会采用"线下深度研讨+线上持续协同"的运作机制:每年举行两次线下全体会议,双周召开线上例会。其核心职能是为Thoughtworks首席技术官Rachel Laycock提供战略决策支持,驱动企业技术愿景的落地实施。 作为跨领域技术治理机构,TAB聚焦影响企业技术演进与技术人才发展的关键议题,构建覆盖技术战略、创新实践与组织能力的全景洞察。本年度技术雷达的内容体系,源于该委员会2025年9月在布加勒斯特举行的专项研讨成果,汇集了全球顶尖技术专家对行业趋势的前瞻判断。 制作团队人员 编审委员会 设计与多媒体部 •William Amaral产品负责人•Nati Rivera产品负责人•Preeti Mishra项目及活动经理•Richard Gall内容编辑•Michael Koch文字编辑•Gareth Morgan内容与思想领导力总监 •Leticia Nunes首席设计师•Sruba Deb视觉设计师•Ryan Cambage多媒体专家•Anish Thomas多媒体设计师•唐蓉中文版设计师 数字与网络体验部 传播与公共关系 •Shalini Jagadish内部传播专员•Hiral Shah社交媒体运营专家•Abhishek Kasegaonkar社交媒体运营专家•Michelle Surendran公共关系专员•Anushree Tapuriah活动与广告策划专家•Prakhar Nigam活动与广告策划专家 •Rashmi Naganur业务分析师•Brigitte Britten-Kelly数字内容策略师•Vandita Kamboj用户体验设计师•Lohith Amruthappa数据分析专家•Neeti Thakur营销自动化专员 中文翻译 •张霄翀专家级软件开发工程师•廖燊软件开发工程师•冯炜高级DevOps工程师 本期主题 基础设施编排助力AI发展 AI工作负载正在推动各组织对大规模GPU阵列进行编排,以支持训练和推理。团队处理的模型规模日益超出单个加速器的容量(即使配备80GB HBM),这促使他们转向分布式训练和多GPU推理。因此,平台团队正在构建复杂的多阶段流水线,并持续调优吞吐量和延迟。在该领域的讨论包括用于集群遥测的Nvidia DCGMExporter,以及将作业部署在互连带宽最高位置的拓扑感知调度。 在GPU需求激增之前,Kubernetes已经是容器编排的事实标准――即便我们也探索了micro和Uncloud等替代方案,它仍是大规模管理AI工作负载的坚实基础。我们正在跟踪新兴的GPU感知调度模式――如通过Kueue实现队列和配额管理,并结合拓扑感知放置和团体调度(gang scheduling)――以便将多GPU作业部署在高速GPU间链路(例如NVLink/NVSwitch)和连续的数据中心“岛屿”(例如配备RDMA的机架或pod)内。Kubernetes最近的多GPU和NUMA感知API改进进一步增强了这些能力,提高了跨设备带宽,降低了尾延迟,并提升了有效利用率。 我们预计,随着平台团队竞相支持日益增长的人工智能编码工作流程需求以及MCP推动的智能体崛起,人工智能基础设施将迎来快速创新。我们认为,GPU感知编排正成为基本要求――拓扑结构如今已成为首要的调度考量因素。 MCP推动的智能体崛起 MCP与智能体的双重崛起――以及围绕它们构建的不断扩展的协议和工具生态――主导了本期技术雷达。几乎所有主要厂商都在为其工具增加MCP支持,这是有道理的:在许多方面,MCP已成为推动智能体运行并使其高效半自主工作的终极集成协议。这些能力对于提高智能体工作流的生产力至关重要。 我们观察到智能体工作流的持续创新,其中上下文工程已被证明对于优化行为和资源消耗至关重要。新协议如A2A和AG-UI正在减少构建和扩展面向用户的多智能体应用所需的模板代码。在软件开发领域,我们比较了向编码智能体提供上下文的不同方式――从AGENTS.md文件到像1的模式。正如AI生态系统中常见的,每期技术雷达都带来一波新的创新――上次是RAG;这次是智能体工作流及支持它们的日益丰富的工具、技术和平台,同时还有一些值得关注的新兴AI反模式。 AI编码工作流 显而易见,AI正在重塑我们构建和维护软件的方式,并持续主导着我们近期的讨论。随着AI在整个软件价值链中战略性地嵌入――从使用AI理解遗留代码库到面向前向工程的生成式AI――我们正在学习如何更好地为编码智能体提供知识支持。各团队正在尝试新的实践,例如通过AGENTS.md文件定义自定义指令,以及集成Context7等MCP服务器以获取最新的依赖文档。 同时,业界越来越意识到,AI必须赋能整个团队,而不仅仅是个人贡献者。像共享指令库和自定义命令等技术正逐渐兴起,以确保知识的公平扩散。工具生态也日趋活跃:设计师们正在探索UX Pilot和AI DesignReviewer,而开发者们则借助v0和Bolt快速进行自助式UI原型设计。 我们也在持续讨论规格驱动开发――包括其适用范围、粒度,以及作为增量交付单一事实源的潜力。然而,在这股AI热潮中,对AI生成代码的盲目信任依然是共同的担忧,这提醒我们:尽管AI能加速工程进程,但人类的判断力仍然不可或缺。 新兴AI反模式 AI在各行业的加速应用,既催生了有效的实践,也涌现出一些反模式。我们看到类似用GenAI自助、进行一次性UI原型设计的概念确实具有明显的实用性,但也意识到它们可能将组织引向AI加速影子IT这种反模式。同样,随着模型上下文协议(MCP)的普及,许多团队也容易陷入天真的API到MCP转换这种反模式。 我们还发现Text to SQL解决方案的实际效果并未达到最初的预期,而对AI生成代码的自满情绪依然是一个值得关注的问题。即便是在诸如规范驱动开发等新兴实践中,我们也注意到有回归传统软件工程反模式的风险――最明显的是,过度依赖前期规范制定和一次性大规模发布。由于生成式AI正以前所未有的速度和规模发展,我们预计新的反模式将迅速涌现。团队应保持警惕,关注那些乍看有效但随着时间推移而失效、反馈迟缓、适应性差或责任不清的模式。 本期雷达 本期雷达 技术 平台 采纳32.云上Arm 采纳 1.持续合规2.为软件团队精选共享指令3.Pre-commit hooks4.使用生成式AI来理解遗留代码库 试验 33.Apache Paimon34.DataDog LLM Observability35.Delta Sharing36.Dovetail37.Langdock38.LangSmith39.模型上下文协议(MCP)40.n8n41.OpenThread 试验 5.AGENTS.md6.AI用于代码迁移7.Delta Lake liquid clustering8.使用GenAI的自助式UI原型设计9.从LLMs获取结构化输出10.测试&&提交||回退(Test && Commit ||Revert) 评估 42.AG-UI协议43.Agent-to-Agent (A2A)协议44.Amazon S3 Vectors45.Ardoq46.CloudNativePG47.Coder48.Graft49.groundcover50.Karmada51.OpenFeature52.Oxide53.Restate54.SkyPilot55.StarRocks56.Uncloud 评估 11.AI驱动的UI测试12.将编码智能体锚定到参考应用13.上下文工程14.用于前向工程的生成式AI15.将GraphQL作为LLM的数据访问模式16.知识流量胜于知识存量17.将LLM用作评审18.设备端信息检索19.SAIF20.无边车服务网格21.小语言模型(SLMs)22.规范驱动开发(Spec-driven development)23.编码智能体团队24.拓扑感知调度25.AI有害流程分析 暂缓 暂缓 26.AI加速影子IT(AI-accelerated Shadow IT)27.容量驱动开发28.自满于AI生成的代码29.天真的API到MCP转换30.独立数据工程团队31.Text to SQL 本期雷达 语言和框架语言和框架 工具工具 采纳85.Fastify86.LangGraph87.vLLM 采纳57.ClickHouse58.NeMo Guardrails59.pnpm60.Pydantic 试验88.Crossplane89.DeepEval90.FastMCP91.LiteLLM92.MLForecast93.Nuxt94.Phoenix95.Presidio96.Pydantic AI97.Tauri 试验 61.AI Design Reviewer62.Barman63.Claude Code64.Cleanlab65.Context766.数据契约CLI67.Databricks Assistant68.Hoppscotch69.NVIDIA DCGM Exporter70.RelationalAI71.UX Pilot72.v0 评估 98.Agent Development Kit(ADK)99.Agno100.assistant