您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[智灵动力]:DeepSeek行业应用实践报告 - 发现报告
当前位置:首页/行业研究/报告详情/

DeepSeek行业应用实践报告

信息技术2025-02-15-智灵动力张***
AI智能总结
查看更多
DeepSeek行业应用实践报告

智灵动力李祖希 DeepSeek行业应用与实践 基础模型、深度思考(R1)、联网搜索 DeepSeek受到市场热捧 日活数据:上线仅20天,日活用户数量突破2000万大关,日活增长速度超过ChatGPT。 下载数据:自1月26日首次登上苹果AppStore全球下载排行榜榜首以来,在140个国家的苹果AppStore下载排行榜中始终保持第一的位置;发布前18天内的下载量达到1600万次,几乎是同期ChatGPT下载量的两倍;印度市场贡献了所有平台下载量的156。 云厂商接入:微软Azure、英伟达、阿里云、华为云、腾讯云、百度云等众多云厂商纷纷宣布上线R1,还推出“零代码”“超低价”等优惠活动。 DeepSeekR1:强化学习驱动的全能推理引擎 DeepSeekR1是由幻方量化旗下AI公司深度求索 技术特点:利用大规模强化学习技术,仅需少量标注数据即可提升性能;构建智能训练场以动态调整和优化模型推理能力。 (DeepSeek)研发的先进推理模型,特别擅长数学、代码和自然语言推理等复杂任务。 该模型采用大规模强化学习技术进行后训练,在仅有少量标注数据的情况下显著提升了模型性能,并且通过智能训练场动态生成题目和实时验证解题过程来进一步增强推理能力。 开源许可:完全开源,采用MIT许可协议,允许自由使用、修改、分发和商业化。 2025年1月20日,DeepSeekR1正式发布,并同步开源其模型权重,采用MIT许可协议,极大地降低了AI应用的门槛并促进了开源社区的发展。 DeepSeekR1实现了高性能与低成本的良好平衡,API服务定价极具竞争力。 DeepSeek与其他模型的横向对比 DeepSeekR1在多个基准测试中取得了优异成绩,如在Arena排名中位列全类别大模型第三,风格控制类模型分类中与OpenAIo1并列第一。 使用DeepSeek的多条路径 API接口 适用场景:集成DeepSeek模型到第三方应用(如聊天机器人、数据分析工具等)。支持模型:DeepSeekR1、DeepSeekMath等系列模型。 开源模型使用 部分模型(如DeepSeekMoE)已在GitHub开源,支持本地部署。访问GitHub仓库获取模型权重及推理代码。 百度云:httpscloudbaiducom 硅基流动:httpswwwsiliconflowcom 官网页面或手机APP 直接访问对话页面与预训练模型交互,支持多轮对话、代码生成等。 本地化部署 DeepSeekR1系列(15B671B、DeepSeekV3(参数量为671B)、DeepSeekJanus系列(视觉相关多模态模型)、 DeepSeekCoder和DeepSeekCoderV2、DeepSeekVL(视觉语言模型) 1 实时动态决策 亚毫秒级响应动态奖励函数 容错机制 2 多模态因果推理 跨模态对齐反事实推理 不确定性量化 3 复杂系统优化 超大规模组合优化多目标权衡 实时重规划 4 知识密集创造 海量知识索引跨学科概念联结 可解释性生成 DeepSeek潜能领域 代码开发与调试 编写、调试和优化复杂的软件代码,通过分析程序运行日志和错误信息,自动定位问题根源,提出有效的解决方案。 算法设计与优化 对于需要复杂算法设计和优化的项目,DeepSeekR1可以提供有力支持,帮助研究人员快速探索不同的算法实现,并进行性能评估。 数据分析与建模 在处理大规模数据集时,DeepSeekR1能够高效地进行数据分析,识别模式并建立预测模型,适用于科学研究中的数据驱动发现。 多源信息整合与跟踪 从多个来源(如新闻、社交媒体、市场报告等)收集信息,并整合为可操作的洞察;能够持续跟踪关键指标的变化,及时发现潜在风险并发出预警。 模拟与预测 对未来市场趋势、产品表现或系统行为进行模拟和预测,构建多种未来情景,评估不同策略的效果。 对话与互动 通过较好的逻辑推理、情感分析及上下文理解能力,在对话互动中提供高度个性化和一致性的用户体验。 AI自动化L1L5:渐进提升全能自理 ReasonersInnovators Chatbots AgentsOrganizations 辅助自动化 部分自动化条件自动化高级自动化 完全自动化 两者均以“AI自动化程度”为线索,但“L1L5阶段”更为贴近该线索,强调AI在逐步减少人类干预的过程中实现完全自主,聚焦自动化发展的渐进演变。相较之下,Altman的AGI五阶段更具实践导向。 对比维度 SamAltman的AGI五阶段 AI自动化L1L5 异同点 辅助性阶段 阶段1:狭义AI,AI在特定任务中提供辅助。 L1:辅助自动化,AI简化流程,提供工具支持。 两者均以AI提供辅助为基础,帮助人类提高效率。 部分自主阶段 阶段23:AI在复杂任务中提供帮助,需人类监督。 L2L3:AI部分自动化,能独立生成内容但需人类设定条件。 均强调AI在逐步减少人为干预的过程中具备部分自主能力。 高级自主阶段 阶段4:通用AGI,AI具备高度自主性,解决广泛任务。 L4:高级自动化,AI独立创作,有一定创新能力。 都体现了AI的自主性,但Altman更关注形成可落地的应用节点。 完全自主阶段 阶段5:超级AGI,AI超越人类,具备自我反思与创新能力。 L5:完全自动化,AI超越人类水平,具备自我反思与创新能力。 两者都预见AI超越人类,但Altman更侧重于实践,L5侧重自动化的程度。 生成机制:语料预学推理输出 具体框架:以“我喜欢吃苹果。”为例 语料预训练模型训练 参数学习 假设我们有一个句子我喜欢吃苹果。作为我们训练语料的一部分。在训练期间,模型将尝试学习句子的模式和结构。 模型可能会看到我喜欢吃并尝试预测出苹果。通过这种方式,模型学习了词汇,语法,以及一些语义和上下文关系。 通过预测任务,模型学习了一组参数,这些参数可以捕捉到输入文本的模式,它们将在训练过程中不断调整,以更准确地预测下一个词。 自回归生成 GPT4模型在生成文本时是自回归的,这意味着它一次生成一个词,然后将这个词添加到输入序列中,以生成下一个词。这一过程持续进行,直到生成一个结束符号,或达到了设定的最大。 多头注意力 GPT4使用了一种叫做多头注意力的技术,这允许模型在不同的注意力头中关注输入的不同方面。这可以帮助模型更好地理解输入的复杂性。 注意力机制 在推理过程中,模型会使用注意力机制技术来决定哪些输入词对生成答案最重要。例如,在上面的问题中,模型可能会认为吃和水果这两个词最重要,因为这两个词直接 相关于应该选择哪种水果。 模型推理 模型训练完成后,可以用它来生成新的文本或回答问题。假设我们向模型提出一个问题:我应该吃什么水果?,模型会考虑这个输入,根据它在训练过程中学到的知识来生成一个答案。模型可能会回答你可以试试苹果。 提示词工程:精准指引效能增益 1设定明确的目标与上下文 说明任务的具体目标(如获取信息、生成文本、分析数据等) 提供背景信息,以减少模型的猜测 针对不同的场景,给出期望的输出类型(如表格、列表、总结等) 6动态反馈与迭代优化 在收到回答后,指出模型的误差或不足,并要求修正 让模型根据前一轮的输出进行自我改进 请求模型总结多轮对话中的关键点,确保连贯性和准确性 2激活角色与思维模式 设定模型为某种特定的身份,如技术专家、教师或HR 指导模型使用某种特定的写作风格(如正式、非正式、技术性等) 让模型模拟某种特定的思维模式,如批判性思维、创造性思维等 5提供参考材料与外部资源 向模型提供外部参考文献或文本,并要求根据这些材料生成答案 要求模型在作答时引用或链接到具体的来源 集成外部工具(如代码执行)来完成复杂的计算或查找任务 3逐步拆解复杂任务 将复杂问题分解为多个独立的步骤 在每一步操作结束后,请求模型总结或验证中间结果 合并多个子任务的输出,形成完整的解决方案或总结 4引导深入推理与思考 让模型分步骤推导出答案,要求“思维链”推理 要求模型在作答前进行简要的自我反思或验证 要求模型解释每一步的思路,而不仅仅是给出最终答案 2ALIGN框架 Aim目标明确任务的最终目标。 Level难度级别定义输出的难度级别。 Input输入指定需要处理的输入数据或信息,或要求模型依据某些事实或条件进行推理。 Guidelines指导原则提供模型在执行任务时应该遵循的规则或约束。 Novelty新颖性明确是否需要模型提供原创性、创新性的内容,是否允许引用已有知识。 1TASTE框架 Task任务定义模型主要任务或生成内容。 Audience目标受众明确说明目标受众。 Structure结构为输出的内容提供明确的组织结构,包括段落安排、论点展开顺序或其他逻辑关系。 Tone语气指定模型回答时的语气或风格。 Example示例例子或模板可帮助模型理解输出风格或格式。 提示词框架:逻辑锚定思维引导 示例 Task写一篇关于数据隐私的重要性的简短博客文章。 Audience普通的互联网用户,非技术背景。 Structure文章需要有明确的开头、中间讨论和结尾,开头提出问题,中间介绍原因和影响,结尾提供建议。 Tone采用友好、易懂的语气。 Example类似于《纽约时报》科技专栏的风格。 示例 Aim创建一篇关于“可持续发展”的文章,解释其核心理念。 Level适合高中生阅读,不需要专业术语。 Input提供目前的环境问题的背景,讨论应对全球变暖的策略。 Guidelines文章应使用简洁明了的语言,并避免复杂的技术概念。 Novelty要求结合最新的环境数据,提出新颖的观点和解决方案。 DeepSeek使用技巧1 扔掉提示词模板,贴合真实需求 DeepSeek是推理型大模型,非指令型 使用时无需复杂专业提示词,应基于真实场景与具体需求提问 例如准备与比亚迪供应商谈判,直接说明自身情况与想了解的内容,如“我下周要和供应商谈判,但对动力电池一窍不通。帮我用最通俗的语言说明”,这样能获得更实用的分析和谈判话术。 本页内容参考:鹤竹子 DeepSeek使用技巧2 巧用“说人话”提示词 DeepSeek回复有时较抽象,添加“说人话”或详尽版提示词可使回答更通俗易懂 例如:回答内耗相关内容时,加“说人话”前很抽象,添加后用日常场景解释,更易理解。 【请用以下规范输出:1语言平实直述,避免抽象隐喻;2使用日常场景化案例辅助说明;3优先选择具体名词替代抽象概念;4保持段落简明(不超过5行);5技术表述需附通俗解释;6禁用文学化修辞;7重点信息前置;8复杂内容分点说明;9保持口语化但不过度简化专业内容;10确保信息准确前提下优先选择大众认知词汇】 本页内容参考:鹤竹子 DeepSeek使用技巧3 运用深度思考提示词 DeepSeek深度思考能力强,但因用户暴增,响应策略调整,思考时间缩短。 使用“请在你的思考分析过程中同时进行批判性思考至少10轮,务必详尽”等核心提示词,可恢复其深度思考时间,让它像思考伙伴一样提供更优质回答。 本页内容参考:鹤竹子 DeepSeek使用技巧4 借助文风转换功能 利用“模仿xxx的文风,撰写关于xxxxx的一篇xx文体”提示词,可实现文风转换。 它更适合模仿经典作家,虽难以100还原,但能抓住神韵。如模仿王勃写赋、鲁迅写作风格等,还可结合万能公式 “我要xx,要给xx用,希望达到xx效果,但担心xx问题”,达到特定写作目的。 本页内容参考:鹤竹子 现阶段无法完全信任任何一种大模型 不同大模型在数据与文本处理中的表现: 大模型 代码与数据处理 文本处理 Claude35Sonnet 更适合Agent设计,主动执行任务、自我修正能力强,仅需少量人工指导。 最佳,数字准确,行文流畅但仍需调整。