AI智能总结
语言的奥秘:人类如何解码世界 从符号到智能:AI的语言理解之路 报告提纲 DeepSeek-V3:大语言模型的构建与进化 DeepSeek-R1:推理模型的诞生与突破 智能体时代:AI如何重塑教育未来 语言对我们有多重要 语言造就了人类,人和动物的根本区别就是人具有创造性地运用语言的能力 •语言赋予人类秩序•语言是思维的工具•语言是合作的纽带 如果想要实现通用的人工智能,理解人类使用的不太精确、 可能有歧义、混乱的语言是一个有效途径。 维克多-D.O.-桑托斯的《是什么让我们成为人类》 下雨了我要赶紧回家... “下雨”/“家”/“收衣服”这些词语,基于我们的经验,在我们大脑中已经建立了固定的神经连接。 下雨了我要赶紧回家收衣服。 人类大脑通过理解每个词语的意思、进行词语组装,从而得到句子的意思,甚至推断出句子背后的含义。因此,理解语言的基础是理解词语及词语间的关联关系。 人类是如何理解语言的? 这个苹果品质真高,已通过欧盟有机认证,每颗果实都带有NFC溯源标签。 人类语言的精准解译与语义歧义的消解具有显著的语境依赖性,需通过系统性整合上下文信息构建语义解析模型。 语言的奥秘:人类如何解码世界 从符号到智能:AI的语言理解之路 报告提纲 DeepSeek-V3:大语言模型的构建与进化 DeepSeek-R1:推理模型的诞生与突破 智能体时代:AI如何重塑教育未来 计算机的数字化世界 计算机理解一切信息的基础是将信息进行数字化。在处理图像时,计算机会将图像的每一个像素转换为数字信号,通常使用颜色的RGB值来表示每个像素。 计算机无法直接理解离散的人类语言 词向量(wordembedding)和词与词之间的位置关系 欧式距离:两个点(或向量)在空间中的“直线距离”。它反映了两个向量的绝对差异。欧氏距离值越小,说明两个向量越接近;值越大,说明差异越大。 余弦相似度:两个向量之间夹角的余弦值来衡量它们的相似度。它反映了两个向量的方向是否相似,而不关心向量的大小。更适用于比较两者相似性(如文本相似度)。 •在序列数据中,同一个元素处在不同的上下文中意思是不同的。如: •(1)Theanimaldidn’tcrossthestreetbecauseitwastootired.(那只动物没有过马路,因为它太累了。)•(2)Theanimaldidn’tcrossthestreetbecauseitwastoowide.(那只动物没有过马路,因为马路太宽了。) •然而,传统的词向量模型中同一个词只有一个向量,这对于一些词语会造成歧义问题,如何解决这个问题呢? 注意力机制与上下文建模 •大语言模型通过使用Transformer架构,可以为每个词生成一个上下文相关的词向量,这解决了传统词向量无法处理多义词和上下文依赖的问题。•一个单词的真实含义,不仅仅取决于它自身,还取决于句子中的其它上下文信息(来自其它单词 的信息)。 •一个单词的向量值,需要融合从句子上下文中的其他单词中的信息,在数学上可以表达为所有单词的向量值的加权平均。这些权重值,我们可以称之为注意力权重(attentionweights)。 与其他单词之间的注意力权重。蓝色的深浅表达了权重的相对大小。 语言的奥秘:人类如何解码世界 从符号到智能:AI的语言理解之路 报告提纲 DeepSeek-V3:大语言模型的构建与进化 DeepSeek-R1:推理模型的诞生与突破 智能体时代:AI如何重塑教育未来 文字接龙游戏 •大语言模型(LLM)最令人印象深刻的能力是它能够通过对话的方式回答用户的问题。那么LLM回答问题的原理是什么呢?•不同于传统问答系统中答案来源于现成的网络或者数据库,大语言模型的回答是随着提问的进行自动生成的。•这一点很像文字接龙游戏,大语言模型会基于前面的话不断地生成下一个合成的词汇,直到觉得不必继续生成为止。下一个概率下一个概率下一个概率 数学家陶哲轩:不是魔法,基于数学的猜测机,基于概率的猜想机苹果是一种水果吗? 大模型是如何工作的 •数学家陶哲轩:大模型不是魔法,是基于概率的猜测机。 •那么大模型是如何不断生成下一个词的概率的呢? •实际上,这一过程依赖于模型内部的参数,这些参数通过大量数据的训练来不断调整,蕴含了数据的分布规律,从而使模型能够在特定上下文下预测出最合适的下一个词。并且,当这些参数单元的数量级提升时,系统的认知能力通常会呈现出显著的进化趋势。 •DeepSeek-V3满血版是67模型•B:Billion10亿 𝐀(苹果是一种水果吗?) 大模型是如何工作的 大模型参数是如何通过学习得到的? •希望能够得到一个模型:基于父亲的身高预测儿子的未来身高。 •类似地,大语言模型的参数也是通过大量数据的学习,逐渐调整和优化的,将数据的规律压缩到参数中,以便对新的数据进行更准确地预测和生成合适的输出。 大模型训练流程 预训练阶段 •在模型预训练(Pretraining)环节,系统通过整合多种来源的数据资源构建训练集,这些数据涵盖互联网网页、维基百科、书籍、GitHub代码库、学术文献及社区问答平台等各类数据源,形成总量达万亿单词级的多样化语料库。 •DeepSeek-V3有16B,236B和671B三种配置•基于超级计算集群(集成数千块高性能GPU)和分布式训练算法,逐步优化深度神经网络的数千亿参数,最终形成具备通用语义理解能力的基座模型(BaseModel)。 •DeepSeek-V3模型的训练语料库包含14.8万亿词元(Token)。 •若让一个人每秒读1个词:需要47万年才能读完,相当于从智人走出非洲开始昼夜不停读到今天。•假设每个token是一颗沙粒,14.8万亿颗沙可填满4.5个北京水立方。 •预训练阶段的训练方法: 完形填空下的自监督学习(Self-supervisedLeaning) •DeepSeek-V3有16B,236B和671B三种配置在预训练阶段,人工智能模型会不断地在句子中‘挖去’一个单词,根据剩下单词的上下文来填空,即预测最合适的‘填空词’出现的概率,这一过程为‘自监督学习’。 原话:一辆列车缓慢行驶在崎岖的山路上预测填空:一辆列车缓慢行驶在崎岖的山路上移除单词:一辆列车行驶在崎岖的山路上 指令微调阶段 •指令微调阶段的训练方法: 例如:提示词(Prompt):浙江大学的发展历史?理想输出:浙江大学前身是创立于1897年的求是书院,1914年停办。1928年于求是书院旧址新建国立浙江大学。1937年举校西迁,在遵义、湄潭等地办学,1946年秋回迁杭州。1952年部分系科转入中国科学院和其他高校,•指令微调(InstructionTuning),亦称有监督微调(SupervisedFinetuning),是一种通过向模型提供明确任务指令来实现参数优化的方法。在此过程中,模型不仅学习输入与输出的映射关系,更重要的是掌握如何理解并执行各类任务指令。•该阶段的训练数据通常由少量高质量样本构成,这些样本包含用户输入的提示词(prompt)及其对应的理想输出(response)结果,从而确保模型能够准确理解和响应特定任务需求。 主体部分在杭州重组为若干所院校,后分别发展为原浙江大学、杭州大学、浙江农业大学和浙江医科大学。1998年,同根同源的四校实现合并,组建了新的浙江大学。指令微调数据示例 •提示词(Prompt):浙江大学的发展历史? •理想输出(Response):浙江大学前身是创立于1897年的求是书院,1914年停办。1928年于求是书院旧址新建国立浙江大学。1937年举校西迁,在遵义、湄潭等地办学,1946年秋回迁杭州。1952年部分系科转入中国科学院和其他高校,主体部分在杭州重组为若干所院校,后分别发展为原浙江大学、杭州大学、浙江农业大学和浙江医科大学。1998年,同根同源的四校实现合并,组建了新的浙江大学。 奖励建模和强化学习 •奖励建模(RewardModeling):构建一个能够评估模型生成内容质量的奖励模型(RewardModel)。 例如:提示词(Prompt):浙江大学的发展历史?•在强化学习阶段,模型通过与奖励模型的交互,优化其生成策略以最大化奖励。主要采用基于人类反馈的强化学习(RLHF,ReinforcementLearningfromHumanFeedback)方法。模型根据奖励模型的反馈调整参数,从而生成更符合人类偏好的文本。 语言的奥秘:人类如何解码世界 从符号到智能:AI的语言理解之路 报告提纲 DeepSeek-V3:大语言模型的构建与进化 DeepSeek-R1:推理模型的诞生与突破 智能体时代:AI如何重塑教育未来 什么是推理模型 •推理模型:推理模型是指能够进行复杂推理任务的大型语言模型(LLMs)。 问题:Joy能在20分钟内读8页书。她需要多少小时才能读完120页书? 例如:提示词(Prompt):浙江大学的发展历史?理想输出:浙江大学前身是创立于1897年的求是书院,1914年停办。1928年于求是书院旧址新建国立浙江大学。1937年举校西迁,在遵义、湄潭等地办学,1946年秋回迁杭州。1952年部分系科转入中国科学院和其他高校,•这些模型能够处理需要多步推导、计算或分析的问题,通常涉及多个中间步骤。推理模型不仅能够解决基本的推理问题,还能应对更复杂的任务,如解谜、数学证明等。 主体部分在杭州重组为若干所院校,后分别发展为原浙江大学、杭州大学、浙江农业大学和浙江医科大学。一个小时有60分钟,20分钟可以分成几组呢?60÷20=3组。所以,Joy每小时可以读8页×3组=24页。接着,Joy需要读120页,计算她需要的时间:120÷24=5小时。因此,Joy需要5小时才能读完120页书。 Joy读5个小时才能读完120页。 1998年,同根同源的四校实现合并,组建了新的浙江大学。•推理模型中的中间步骤可以通过两种方式呈现。首先,它们可能会显式地出现在回答中,如示例所示。其次,一些推理型LLM(如OpenAI的o1)会进行多次迭代,而这些中间步骤则不会展示给用户。 带有中间推理步骤的回答 推理模型R1-Zero是怎样炼成的——纯强化学习 训练模版 理想输出:浙江大学前身是创立于1897年的求是书院,1914年停办。1928年于求是书院旧址新建国立浙江大学。DeepSeek-R1-Zero的模板。在训练过程中,prompt将被替换为具体的推理问题。 1937年举校西迁,在遵义、湄潭等地办学,1946年秋回迁杭州。1952年部分系科转入中国科学院和其他高校,主体部分在杭州重组为若干所院校,后分别发展为原浙江大学、杭州大学、浙江农业大学和浙江医科大学。激励类型 准确度激励:1+1=?答对2得1分,否则0分 格式激励:是否遵循<think></think><answer></answer>的格式,遵循得1分,否则0分 没有推理过程的激励! 推理模型是怎样炼成的 DeepSeek-R1-Zero在RL过程中训练集上的平均响应长度。DeepSeek-R1-Zero自然地学会了通过更多的思考时间来解决推理任务。没有用到中间的过程推理数据来监督训练模型! 推理模型R1是怎样炼成的——有监督微调和强化学习 •DeepSeek-R1-Zero缺陷:可读性差(poorreadability)和语言混淆(languagemixing) 模型蒸馏——有监督微调 •利用DeepSeek-R1和DeepSeek-V3产生的数据进一步微调小规模LLM。 超大规模的推理模型产生的数据,可以大幅提升小规模模型的效果。 语言的奥秘:人类如何解码世界 从符号到智能:AI的语言理解之路 报告提纲 DeepSeek-V3:大语言模型的构建与进化 DeepSeek-R1:推理模型的诞生与突破 智能体时代:A