您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [深信服]:企业AI建设规划和落地指南 - 发现报告

企业AI建设规划和落地指南

信息技术 2025-05-09 - 深信服 睿扬
报告封面

快速落地DeepSeek 战略规划到场景落地,8 大详细路径解析 DeepSeek 横空出世,以低成本、高性能、强开源的三重属性颠覆大模型产业链的传统逻辑,为我们提出了发展 AI 技术的另一个解法⸺并非一味地追求算力膨胀。各行各业都在讨论和积极尝试 DeepSeek,用户对于智能化的认知与实践正经历着新一轮的深刻变化,也影响着用户的 AI 规划和落地路径。 全面拥抱DeepSeek 建设AI的共识空前一致 各行业用户进行 AI 建设之前,往往要进行大量战略对齐工作,而在 DeepSeek R1 火爆之后,用户建设 AI 的共识达到空前一致,原本因技术不确定性而存在的观望态度迅速消解,取而代之的是对 AI 建设的战略聚焦。 资源的重新配置体现为研发预算的倾斜、跨部门协作机制的建立,以及对长期技术投入的容忍度提升。这种自上而下的共识推动 AI 项目从边缘试点向核心业务渗透,形成了一种“ 技术驱动战略 ”的新型决策逻辑。 DeepSeek重塑用户AI建设路线图 一个典型的 AI 建设整体路线图,包括8 个关键步骤,才能实现 AI 项目的全面落地与持续运营。 把DeepSeek提升为战略级目标 目标应与用户的战略紧密相连,确保 AI 的建设为实现整体战略目标服务。用户在建设 AI 时,经营目标、运营目标和部署目标相互依存,形成一个完整的目标体系。用户在部署大模型时需要清晰地识别其适用场景与局限,不能一刀切,而应制定合理和差异化的目标。因此,了解何时适合采用 AI、何时避免使用 AI,以及针对特定场景选择何种 AI 技术至关重要。 DeepSeek 大模型的突破性进展,抬高了大模型能力天花板,AI 适用场景进一步扩大。它能够模拟人类专家级的逻辑推演过程,展现出极高的逻辑严密性,其核心在于将传统 AI 的“ 规则响应 ”升级为“ 认知推演 ”,这使得 AI 能够处理非结构化信息交织的模糊性场景。 当这种接近人类高阶思维的能力注入业务场景,能力的质变直接打破了“AI 仅适用于标准化场景 ”的固有认知,推动应用边界向战略规划、创新设计等高阶领域延伸。 评估现状,了解AI的落地成熟度 在明确了 DeepSeek 的战略目标之后,我们需要了解用户自身所处的阶段,发现薄弱环节,并为下一步的建设方向提供指导。我们主要从4 个方面来评估现状。 战略与场景 要确保用户内部已达成目标的对齐,同时需要优先选择符合战略目标,并且具备可行性的场景进行实施。 数据就绪度 AI 项目的成功,一定是数据驱动的。无论是传统 AI 还是生成式 AI,高质量的数据是 AI 模型项目的基础。但对于生成式 AI 来说,更重要的一点是数据的规模和多样性。比如 DeepSeek R1 模型能力强,一方面原因是算法创新,如 MLA、强化学习等,更重要是数据质量高、场景覆盖广。另外,想要长久保持 AI 模型的高质量服务,还需要不断采集数据、反馈数据,对模型进行迭代更新。 AI 项目的落地实施,离不开团队 需要具备理解业务并转化为项目的核心架构,以及一些工程化的角色,如数据标注、清洗、模型训练和调参、工程优化等角色。DeepSeek 的优异性能,让越来越多中小企业可以直接应用,进一步降低了工程化团队的要求,也会使得 AI 项目落地更加容易。 资源就绪度 指的是 AI 算力,包括计算、存储、网络等,以及为了实施项目所需要的一些基础框架、开发工具等,目的是提供对 AI 全生命周期的支撑。随着 DeepSeek 的规模化应用,AI 行业重心从训练转向推理,未来推理算力的消耗和供给将会极大增加,推理算力占比将从 30% 提升到 70%,用户在算力选择方面也会更加便利。 选择DeepSeek应用场景 如何选择 AI 应用场景,归根结底都是围绕降本增效、提升体验和模式创新三个方面来展开的,这些也是各行业智能化转型的终极目标。 首先关注战略匹配度,看是否符合这三个方面的目标,其次是技术支撑,重点考虑是否是生成式 AI 的应用场景,以及通过哪些技术路径来支持场景落地。 另外就是数据和 AI 基础设施:数据层面,需要具备精标注数据、反馈数据,以及垂类语料(无标注数据)条件;算力方面提供 AI 计算支撑;基础大模型方面,这是应用 AI 的最基础条件,用户需要考虑大模型的开源 / 闭源路线。目前开源路线已得到极大发展,尤其是 DeepSeek 生态已快速形成并在规模化扩张,芯片厂商、云厂商、软件厂商都在主动接入或适配,未来将会持续扩张。拥抱 DeepSeek 是一种更高性价比的选择。 初步评估可行性 选定场景后,我们需要对某个特定场景进行初步可行性判断,这个判断需要业务、技术和工程角色共同参与评估。 业务如何判断呢?DeepSeek 的优异性能和获得的便利性,让我们可以随时进行场景验证。例如,业务方是合同审核部门,场景是审核合同里的关键内容是否缺失,那么可以基于 DeepSeek 进行初步验证,输入一段合同文本,输出就是几个关键字段和它的值,而目标就是提取这些信息,并且内容没有丢失。这是没有任何技术和工程参与优化的结果。这个工作业务团队是完全可以胜任的,如果让技术部门来判断,可能会存在业务知识缺少的情况,无法准确判断业务场景的可行性。 技术部门则重点关注基础模型本身的能力,也就是大模型在预训练阶段基本定型的,主要包括它在预训练阶段用的知识、采用了哪些语言、有没有用一些带有逻辑推理的语料。在这些方面,DeepSeek 模型也表现出极为出色的能力,尤其是 671B 满血版,经历了 SFT 冷启动、COT 数据、GRPO 强化学习算法及全场景强化学习等多个创新点,模型已具备高效及强大的思考能力。 最后是工程角度,在 DeepSeek 出现之前,使用大模型需要掌握一些 Prompt(提示词)优化技巧,有时还需要结合 few shot(示例),以及思维链等方式,来激发大模型本身的能力。而 DeepSeek 本身已经表现出了以接近人类专家的水平的思考过程,这就极大降低了 Prompt 设计工作的复杂程度。 各行业用户内部,知识问答的需求将会爆发式增长,因为接入 DeepSeek 来实现企业 RAG(检索增强)生成这种方式,整体的工程化落地难度也大大降低,越来越多用户会开始建设知识问答应用,以服务内部或外部客户。 同 样 的,DeepSeek 本 身 对 语 言 理 解 能 力 以 及 对 指 令 的 遵 循 能 力 变 得 更 好,所 以 进 行 大 模 型 SFT(SupervisedFine-Tun-ing)微调甚至进行二次预训练,这种场景将会大幅减少,对其工程化团队的要求将大幅降低。 准备DeepSeek落地所需资源 在确定初步可行之后,即可开始准备大模型落地所需资源。主要从 4 个方面准备:与建设场景相匹配的数据、算力、开发工具和团队。 准备数据 根据选择场景的不同,需要准备的数据也会有很大不同: RAG 场景 文档预处理(如文档格式转换等)、文档解析(PDF 识别,版式识别)、OCR(图像转文字)、文档切分(切分为小的片段)、数据增强(提取 QA、生成摘要)。 大模型微调场景 对于少数具备较强 AI 技术能力的团队,在微调场景需要准备:精标注 QA 数据(问答对形式)、准备指令数据(如人设遵循、输出格式要求等)。需要确保数据准确性(例如做过滤低质量,去掉重复数据等)、数据多样性(要能够覆盖各种真实应用场景)、数据一致性(数据不冲突)、数据增强(生成 QA、摘要)等。 二次预训练场景 这种需求只有在某个垂类领域的头部企业才会选择,包括:专业领域的语料(如金融、医疗等专业术语,这些领域使用语境等)。需要确保数据多样性(如覆盖场景种类足够多)、数据规模足够大(一般要达到数十亿级 token 以上)、一定的配比数据(增加通用领域数据做二次预训练,如 1:1 配置)、数据处理能力(去除重复数据、低质量数据、隐私数据、不合规数据等)。 准备算力 在大模型建设中,算力的多少决定了训练速度、效率和模型表现,是推动模型快速落地的关键资源。那么要准备多大的算力才能满足实际应用需求 ?这里有一些经验,可以用于快速进行算力数量估算(此处仅考虑 GPU 算力)。 对于训练场景,全参微调所需的总显存一般为模型参数量(以 B- 十亿为单位)的 20 倍,例如 70 亿(7B)参数大模型,至少需要 140G 显存,按照单卡 80G 显存,则对应的 GPU 卡至少需要 2 张。而 130 亿(13B)参数大模型,至少需要 260G 显存,按照单卡 80G 显存,则对应的 GPU 卡至少需要 4 张。 准备工具 基础大模型的选择,往往决定了应用效果的基线。对于大多数用户来说,首选是 DeepSeek R1 系列蒸馏模型,在同等参数量下,相比其它开源大模型,它能够取得更好的效果。而在 6 个蒸馏模型中,32B 参数量大模型能够在效果和落地成本方面取得较好的平衡,可以作为应用首选。 如果是为了解决特定场景下的应用目标问题,则需要 AI 应用开发工具,例如开发一个 RAG 应用、Agent 智能体应用等,需要评估应用开发工具对场景效果的支撑。 在模型微调和部署工具选择上,基于长远考虑,首先关注对资源的利用率和整体性价比,其次需要考虑工具的完整性、兼容性、易用性、可靠性、以及安全性 。例如,在性价比方面,在相同的基础大模型条件下,平台对于算力资源消耗和模型服务性能如何;使用时学习门槛是否足够低,操作是否足够简便,过程是否自动化等。 搭建团队 大模型项目更依赖于数据驱动的效果调优、模型微调和二次预训练等技术,而传统系统更关注业务流程的实现与系统的长期稳定性。用户在推动大模型项目落地时,应根据首先落地的场景,来做差异化的团队配置。 例如,初期只选择内部流程自动化场景,只需要做 Prompt 优化和系统对接就可以,所以在 AI 团队上重点配置提示词优化工程师、工程开发工程师;而在 RAG 应用场景,就需要文档数据预处理、检索优化等工程师。 分阶段实施 阶段一:场景为王 & 运营提效 场景为王,指的是选择最简单、最容易做出效果的场景去建设。当前,基于 DeepSeek 模型的 RAG 应用正成为各行业智能化转型的关键突破口。DeepSeek 推动大模型技术逐步走向产业化规模化落地,用户亟需找到投入产出比高、见效快的AI 应用场景。RAG 技术凭借其“ 知识检索 + 智能生成 ”的双重能力,正成为用户构建智能系统的首选方案。 对于希望快速实现 AI 价值的用户,建议优先选择知识密集度高、流程标准化强的场景切入,例如技术文档问答或产品知识库建设。通过小步快跑的方式,用户可在 3 个月内看到明显的效率提升,为后续更复杂的 AI 应用奠定基础。在实施过程中,要特别注意建立知识更新闭环,持续优化检索策略和生成质量,最终形成具有特色的智能知识中枢。 相较于其它通用大模型,DeepSeek 模型在构建企业 RAG(检索增强生成)应用中的优势不仅体现在成本降低和技术性能提升,更能通过开源生态为用户提供从基础应用到深度智能的全链路支持。 例如推理成本降低,DeepSeek 在复杂推理任务(如金融研报生成)中实现了 70% 的成本降低。其蒸馏模型(如DeepSeek-R1)在更小规模下仍能保持高性能,减少了对高端计算资源的依赖; 长思维链与自我验证,通过强化学习和模型蒸馏技术,DeepSeek 能在小参数模型中实现长推理链与自我验证,满足用户对复杂场景的高准确率要求; 开源商用授权,DeepSeek 模型提供开源商用授权政策,用户可免费用于微调、量化及衍生开发,降低技术门槛和法律风险。 以知识库检索问答(RAG)方案为例,用户正将 AI 应用从单点工具升级为全域知识中枢。某处于装备制造产业链下游的传统型企业,需要对接上千家上游元器件供应商。企业有数百名产品设计人员,主要工作是结合工艺参数的需求,进行物料选型,再给后续环节使用。 物料总计有 3