证券研究报告|2024年12月30日 人工智能专题:小米AI布局 行业研究·行业专题计算机·人工智能 投资评级:优于大市(维持) 证券分析师:熊莉联系人:云梦泽 021-61761067021-60933155 xiongli1@guosen.com.cnyunmengze@guosen.com.cnS0980519030002 小米科技通过聚焦底层技术与AI赋能,正式推出自研大模型。2023年8月14日,雷军宣布小米将深耕底层技术,长期持续投入,推动软硬深度融合,并全面赋能AI,提出公式(软件×硬件)ᴬᴵ。小米的自研大模型主要突破方向为“轻量化、本地部署”,既保障用户的数据安全,又提升生产力。自2016年成立AI实验室以来,小米逐步布局了包括视觉、语音、NLP等12个技术领域,预计在2022-2026年间将投入超过1000亿元的研发经费,沉淀技术积累。 小米MiLM2升级发布,性能与技术全面提升。2024年11月,MiLM2模型完成了从一代到二代的升级,增强了模型的参数矩阵,支持云边端结合,提升了推理速度和量化性能,且长文本处理能力处于行业领先地位。团队在预训练、量化、推理加速等领域也进行了一系列技术创新,包括SUBLLM、TransAct、INTRADoc等新结构,进一步提升了训练和推理效率。小米的「人车家全生态」战略,旨在构建涵盖人、车、家等场景的智能生态系统,在实时交互需求日益增长的背景下,对大模型的生成、闲聊、翻译等能力提出了更高要求,MiLM2模型表现出色。 MiLM2大模型矩阵灵活扩展,充分适配多元化场景。小米自研大模型团队灵活扩展了模型参数规模,涵盖0.3B至30B多个量级,以适应不同的业务场景和资源需求。针对终端场景,0.3B到6B的模型可完成具体、低成本任务,并在微调后与百亿参数开源模型相媲美;6B至13B的模型支持多任务微调,达到几百亿开源模型效果;30B模型则专为云端设计,具备强大的zero-shot学习和复杂任务处理能力。端侧方面,4B模型在设备端成功部署,通过创新的“TransAct大模型结构化剪枝方法”和端侧量化技术,小米显著提升了训练和推理效率;MiLM2-30B作为云端模型,在指令遵循、常识推理和阅读理解等方面表现优异。 小米大模型应用落地,全面赋能各类设备。提升用户体验。在手机端,支持AI图片编辑和智能视频剪辑;平板用于自动生成会议纪要和行业报告,提高工作效率;电视端提供影视问答、健身和家庭计划等功能;汽车端具备语音控车、智能导航等功能,提升出行便捷性。这些成果已应用于澎湃OS、小爱同学、智能座舱、智能客服等产品,帮助解决多样化业务需求。 2023年,小米正式宣布将集团战略升级为“人车家全生态”。“超级小爱”借助AI算法与大模型技术,大幅提升自然语言处理与决策能力;小米澎湃OS2内置的XiaomiHyperAI带来多重创新,在AI写作、识音、字幕等方面提升,还与“超级小爱”紧密融合,将AI能力深入系统层,为全生态设备赋能;小米智能家庭平台作为生态链的控制与电商中枢,开放接入第三方产品,成功打造出涵盖产品接入、众筹孵化、电商销售、用户触达与控制分享的完整生态闭环。 风险提示:技术迭代不及预期、市场竞争加剧、个股梳理仅基于产业链结构,不涉及主观投资建议。 8月:小米声音大模型在SU7首次上车 10月底:城市NOA全国都能开,开启全量推送 12月底:端到端全场景智能驾驶,开启先锋版推送 智能电动汽车 WPS365:包含了WPSOffice、WPSAI企业版和WPS协作,打通了文档、AI、协作三大能力 WPSOffice:内置在线智能文档、智能表格、智能表单等WPS云文档(金山文档):提供多样化的云办公体验 WPSAI:升级至2.0,推出WPSAI办公助手、企业版、政务版 金山办公 2023年,小米正式宣布将集团战略升级为“人车家全生态”。“超级小爱”借助AI算法与大模型技术,大幅提升自然语言处理与决策能力;小米澎湃OS2内置的XiaomiHyperAI带来多重创新,在AI写作、识音、字幕等方面提升,还与“超级小爱”紧密融合,将AI能力深入系统层,为全生态设备赋能;小米智能家庭平台作为生态链的控制与电商中枢,连接米家生态链公司,开放接入第三方产品,成功打造出涵盖产品 接入、众筹孵化、电商销售、用户触达与控制分享的完整生态闭环。 人车家全生态操作系统:小米澎湃OS基于AI的操作系统:XiaomiHyperOS2AI大模型矩阵:包括MiLM-6B等模型 操作系统与大模型 智能手机:小米15系列搭载骁龙8至尊版 平板:Pad7Pro搭载第三代骁龙8s旗舰处理器智能家居:空调、冰箱、洗衣机等 可穿戴设备:手环、手表、耳机等 硬件产品 智能语音助手小爱同学:全面搭载大模型,多模态能力升级 涵盖小爱通话、小爱翻译、小爱视觉、家庭传声、听声识人等多种功能 软件应用与服务 国内第一梯队游戏云服务商,提供全套云产品,包括统一的IaaS基础设施、PaaS层和SaaS应用软件 金山云 资料来源:小米官网,金山办公官网,金山云官网,国信证券经济研究所整理 聚焦底层技术与AI赋能,自研大模型正式推出。2023年8月14日,雷军在年度演讲中宣布小米科技战略升级:深耕底层技术、长期持续投入,软硬深度融合,AI全面赋能,总结为公式(软件×硬件)ᴬᴵ。小米自研大模型正式亮相,主力突破方向为“轻量化、本地部署”,让用户在享受安心的数据保护的同时,拥有大模型带来的先进生产力。小米自研大模型在当时权威中文评测榜单C-EVAL和CMMLU中,取得同参数量级第一的好成绩;小米自研手机端侧大模型初步跑通,部分场景效果媲美云端。 以AI为基石,沉淀技术积累。小米很早就对人工智能进行布局,2016年小米AI实验室成立,并组建了第一支视觉AI团队,2023年4月成立专职大模型团队,截至2023年8月小米人工智能团队已经有3000多人,逐步建立了视觉、语音、声学、知识图谱、NLP、机器学习、多模态等AI技术能力,并已布局了12个技术领域,99个细分赛道,2022-2026年至少会投1000亿以上的研发经费。 图1:小米AI发展历程图2:小米自研手机端侧大模型初步跑通,部分场景效果媲美云端 资料来源:小米公司公众号,国信证券经济研究所整理 2024年5月16日,小米大语言模型MiLM正式通过大模型备案。历经一年多的打磨,小米大语言模型已形成包括多种参数规模和形态的模型矩阵,既通过小米澎湃OS系统和人工智能助手小爱同学落地C端产品,也在集团内进行开源,为生产、销售、员工工作等各环节赋能。 自有数据驱动深度优化,隐私安全与效率兼顾。 •数据上,小米自身挖掘整理的训练数据占比达到了80%,其中小米自有的产品和业务数据量达到3TB(截至2023.8); •效率和效果上,小米根据对Transformer结构的理解进行改良,充分考虑设备端芯片的特色要求,合理设置模型的宽度和深度; •训练策略上,采用小米提出的ScaledAdam优化器和Eden学习率调度器,显著提升收敛速度的同时减少了优化器中显存的浪费,实现“轻量化”; •隐私上,模型部署到端侧后,信息不用上传到云端,所有计算都在本地进行,保证用户隐私不被泄露。 图3:小米大语言模型MiLM通过大模型备案图4:小爱同学落地C端产品 资料来源:小米公司公众号,小米技术公众号,国信证券经济研究所整理 小米MiLM2升级发布:性能与技术全面提升,云边端协同优化 2024年11月,小米大模型已经实现了从一代到二代(MiLM2)的升级迭代。主要升级包括: •丰富了模型的参数矩阵,参数规模同时向下和向上扩充,实现了云边端结合,参数尺寸最小为0.3B,最大为30B; •在10大能力维度上,相比于第一代模型平均提升超过45%,其中指令跟随、翻译、闲聊等关键能力处于业界前列; •在端侧部署上支持3种推理加速方案,包括大小模型投机、BiTA、Medusa,并且量化损失降低78%; •支持的最长窗口为200k(第一代为4k),在长文本评测中,效果处于业界前列。 小米大模型团队在预训练、后训练、量化、推理加速等方向做了大量的技术探索和创新。 •SUBLLM模型结构:模型能够区分重要token和不重要token,训练和推理速度分别提升34%和52%。 •TransAct大模型结构化剪枝方法:目的是同时实现高度压缩和较小损失,KVCache下降了50%,推理速度提升了20%(小米14手机测试)。 •INTRADoc注意力机制:通过屏蔽无关文档,让每个token的概率仅取决于同一文档中的上文信息。 •MixtureofDiverseSizeExperts:每一层中设计大小不同的专家结构,并引入了一种专家对分配策略,以在多个GPU之间均匀分配工作负载。 图5:SUBLLM架构,提高训练和推理速度图6:INTRADoc注意力机制,消除潜在干扰信息 小米大模型团队采用自主构建的通用能力评测集Mi-LLMBM2.0,对最新一代的MiLM2模型进行了全方位评估。该评测集涵盖了广泛的应用场景,包括生成、脑暴、对话、问答、改写、摘要、分类、提取、代码处理以及安全回复等10个大类,共计170个细分测试项。以MiLM2-1.3B模型和MiLM2-6B模型为例,对比去年发布的一代模型,在十大能力上的效果均有大幅提升,平均提升幅度超过45%。 小米的「人车家全生态」战略,旨在构建一个涵盖人、车、家等多元化生活场景的超级智能生态系统。在这个系统内,实时交互成为常态,每时每刻都需要精确对接用户千差万别的个性化需求,这对于大模型的生成、闲聊、翻译等能力提出了更高的要求。在这些关键能力上,MiLM2-6B模型的评测成绩十分优异,对比业内同参数规模模型也有较优的效果。 图7:MiLM2模型效果显著提升图8:MiLM2翻译、闲聊、生成评论效果与同行业对比 在坚持轻量化部署的大原则下,小米自研大模型团队构建并不断扩充了自研大模型的模型矩阵,将大模型的参数规模灵活扩展至0.3B、0.7B、1.3B、2.4B、4B、6B、13B、30B等多个量级,充分考虑多元化的业务场景及资源限制。 •0.3B~6B:终端(on-device)场景,应用时通常是一项非常具体的、低成本的任务,微调后可以达到百亿参数内开源模型效果。 •6B、13B:支持多任务微调,微调后可以达到几百亿开源模型的效果。 •30B:云端场景,具备坚实的zero-shot/上下文学习或一些泛化能力,模型推理能力较好,能够完成复杂的多任务。 小米自研大模型矩阵不仅包含多样的参数量级,同时也纳入了各种不同的模型结构。在二代模型系列中,大模型团队加入了两个MoE结构的模型:MiLM2-0.7B×8和MiLM2-2B×8。以MiLM2-2B×8为例,根据评测结果,该模型在整体性能上与MiLM2-6B不相上下,而解码速度实现了50%的提升,提升了其运行效率。 图9:MiLM2模型矩阵,参数规模灵活扩展图10:MiLM2-2B×8与MiLM2-6B效果不相上下 端侧新增4B模型:小米的大模型团队在端侧部署方面取得了显著进展,成为业界首个在移动设备上成功运行1.3B和6B大模型的公司。小米大模型团队创新性地提出了“TransAct大模型结构化剪枝方法”,仅用8%的训练计算量即从6B模型剪枝了4B模型,训练效率大大提升;同时小米大模型团队自研了“基于权重转移的端侧量化方法”和“基于Outliers分离的端侧量化方法”,大幅降低了端侧量化的精度损失。MiLM2-4B模型总共40层,实际总参数量为3.5B,目前已经实现在端侧部署落地。 云端新增30B模型:MiLM2-30B模型是小米二代大模型系列中参数量级最大的模型,专为云端场景设计。在云端环境中,大模型需要更高效地遵从并执行用户的复杂指令,深入分析多维度任务,并在长上下文中精准定位信息。针对这些重点目标,大模型团队选择了一系列开源的评测集,对