您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国泰君安证券]:国内大模型行业深度报告:落地条件初具,搜索与情感陪伴赛道崛起 - 发现报告

国内大模型行业深度报告:落地条件初具,搜索与情感陪伴赛道崛起

文化传媒2024-05-28陈筱、杨昊国泰君安证券S***
AI智能总结
查看更多
国内大模型行业深度报告:落地条件初具,搜索与情感陪伴赛道崛起

持续看好国产大模型落地趋势中的应用场景投资机会。我们对后续国产AI的发展保持信心,传媒行业有望受益:1)教育行业有望受益于语音交互和多模态发展,受益标的世纪天鸿、皖新传媒、南方传媒、鸿合科技;2)情感陪伴赛道同样有发展机会,受益标的昆仑万维、盛天网络;3)关注多模态发展对影视制作及营销场景的改造、以及图像语料需求,推荐上海电影,受益标的视觉中国、值得买、蓝色光标、捷成股份;4)游戏作为生产工艺最复杂的内容产业,其受益于AI发展的潜在空间也最大,优质游戏公司价值突出,推荐恺英网络、吉比特、三七互娱、完美世界、姚记科技,受益标的腾讯控股、网易、巨人网络、神州泰岳、宝通科技。 国产大模型能力接近海外头部,已经开始价格竞争,落地场景有望进一步打开。政策端稳步推进生成式模型报备,为国产大模型的持续迭代和推广提供了基础条件,2024年以来,国产大模型继续提升能力,已经接近头部产品GPT4的水平。海外GPT-4o进一步提升产品性价比、Llama和Gemini等优质开源大模型迭代,这种使用成本的压缩趋势在国内也已经出现,字节、百度、腾讯等公司相继降低API调用价格,这一趋势有望助力国内AI应用的蓬勃发展,或将看到更多场景内的AI落地。 搜索赛道:海外头部产品成功确立赛道,国内新老搜索玩家相继入场,已经初步开启流量争夺。搜索赛道先行者为海外的AI答案引擎Perplexity AI,自2023年以来用户规模稳步提升,已经基本可以稳定300万人的网页端日访问量;国内的信息搜索新老玩家积极入场,Kimi、秘塔、天工等产品热度自年初以来持续提升,已经形成一定程度的产品特色、受众群体,也开始探索买量获客、付费变现等环节。 情感陪伴赛道:用户需求稳定,产品变现尚待开发。情感陪伴赛道起步可追溯至2017年,产品主要通过定制虚拟人物满足用户情感需求,AI技术融入增添交互感与代入感,相比ChatGPT为代表的效率类交互AI,情感陪伴AI用户规模稳定而用户交互频次、时长都显著更多,潜在空间巨大,目前用户群体相对年轻,而产品付费方案暂不突出,如何提升用户体验和变现是其长期发展的重要议题。 风险提示:大模型落地推进效果不及预期,产品竞争加剧风险。 1.投资建议 持续看好国产大模型落地趋势中的应用场景投资机会。进入2024年,海外有GPT-4o将产品性价比大幅提升,Llama、Gemini等优质开源模型也为全球大模型发展提供了重要推动,国内方面大模型厂商迎头赶上,成本端的降低和体验的提升已经开始,AI落地场景有望逐步丰富化。后续可期待GPT-4o大幅提升语音交互效果,以及AI视频领域sora及国内优质视频AI大模型的上线。我们对后续国产AI的发展保持信心,传媒行业有望受益: 1)教育行业有望受益于语音交互和多模态发展,受益标的世纪天鸿、皖新传媒、南方传媒、鸿合科技; 2)情感陪伴赛道同样有发展机会,受益标的昆仑万维、盛天网络; 3)关注多模态发展对影视制作及营销场景的改造、以及图像语料需求,推荐上海电影,受益标的视觉中国、值得买、蓝色光标、捷成股份; 4)游戏作为生产工艺最复杂的内容产业,其受益于AI发展的潜在空间也最大,优质游戏公司价值突出,推荐恺英网络、吉比特、三七互娱、完美世界、姚记科技,受益标的腾讯控股、网易、巨人网络、神州泰岳、宝通科技。 表1:推荐公司盈利预测与估值情况表 2.政策端:进展迅速,近150个大模型通过报备 自2023年8月31日首批大模型(生成式人工智能服务模型)报备以来,截至2024年5月22日各地报备大模型至少147个,根据时间间隔来看可以划分为6个批次(与上次发布间隔超过2周算作下一批次)。 图1:生成式人工智能服务模型报备至今共有大约6个批次 从单批次的报备通过数量来看,每次数量相近,基本每两个月至少会发放20-30个,市场的报备需求能够比较好的满足和反馈。从报备归属地来看,基本集中北京、上海、广东、浙江,其中北京市71个,占比达到49%,上海市和广东省分别为32个和19个,浙江省7个,其余有10个省/直辖市报备共15个,另有1个(中国移动)报备属地为国资委。 图2:不同批次通过备案的个数差距不大 图3:北京、上海、广东、浙江报备数量居前 3.大模型:能力接近海外头部,价格竞争开始 3.1.大模型能力追赶中,国产大模型多已接近GPT-4水平 进入2024年,国产大模型能力持续提升,整体接近GPT-4。国产大模型综合能力提升显著,从语言、知识、推理、数学、代码、智能体6项指标的得分均值来看,国内的诸多大模型已经接近海外头部的GPT-4-Turbo和Claude3-Opus,显著高于GPT-3.5-Turbo。其中均分前几位的国产大模型依次为智谱华章的GLM-4(2024年1月)、MiniMax的abab 6.5(2024年4月)、阿里巴巴的Qwen1.5-110B-Chat(2024年4月)、幻方的DeepSeek-V2-Chat(2024年5月)。 图4:从6个维度的评分均值来看,国产大模型(蓝色柱)已可比肩海外头部大模型(红色柱) 国产大模型在语言、知识、推理等单一维度甚至已经超过GPT-4-Trubo。 目前国产大模型在语言和知识维度已经明显赶上GPT-4-Turbo,如阿里巴巴Qwen1.5-110B-Chat、智谱清言GLM-4、百度ERNIE-4.0均已在语言和知识两个维度超过GPT-4-Turbo,月之暗面Moonshot-v1-8k也在知识维度略微高于GPT-4-Turbo;推理维度,科大讯飞的讯飞星火V3.5在推理方面得到48.8分,小幅超过GPT-4-Turbo的48.2分,MiniMax的abab6.5更是达到50.1分;阿里巴巴Qwen1.5-110B-Chat在数学维度达到53.6分,与GPT-4-Turbo持平;DeepSeek-V2-Chat代码得分67.3分,小幅超过GPT-4-Turbo的67.2分;智能体维度上,各大模型距离GPT-4-Turbo仍有差距。 图5:国内大模型在部分领域比肩GPT-4-Turbo-1106 3.2.“高性价比”,诸多国产大模型采用MOE架构 MoE是由专家模型和门控模型组成稀疏门控制的深度学习技术。MoE使用门控网络决定每个数据应被哪个模型训练,实现任务或训练数据在不同专家模型间的分配,让每个模型专注处理其最擅长的任务,从而实现稀疏状态,即输入数据后只有少数专家模型被激活成者使用,大部分专家模型处于未被激活状态。 图6:MoE是由专家模型和门控模型组成稀疏门控制的深度学习技术 MoE的特点在于可通过指令微调技术大幅提升语言模型性能。MoE可在不增加推理成本的情况下,为大型语言模型(LLM)增加可学习的参数,能够解决模型规模扩展导致训练成本显著增加的问题,结合指令调优后,MoE模型(Flan-MoE)在多个任务上的表现超越了更大的密集模型,同时MoE模型的计算成本只是密集模型的三分之一。2023年12月,Mistral AI发布了首个开源MoE大模型Mistral 8x7B,其包含47B参数,在每个时间步长内只有2个专家处于活跃状态,对每个输入token只使用了13B参数,因此比普通的非MoE 47B参数模型要高效得多,性能达到Llama 2 70B和GPT-3.5的水平。 图7:Mistral 8x7B对每个输入token使用了13B参数且基准测试中性能基本优于Llama2 (7B/13B/70B) 国内众多厂商更新产品采用MoE架构。2024年1月,MiniMax发布了国内首个基于MoE架构的abab 6,3月开始更多新发布或者更新的模型公开其采用了MoE架构,至少有包括阶跃星辰、通义千问(Qwen1.5-MoE-A2.7B)、面壁智能(MiniCPM-MoE-8x2B、商汤科技(“日日新SenseNova 5.0”)、DeepSeek-V2等,而这些模型在能力水平上也接近或者超过GPT-4,但在参数量和成本上并未达到很高的水平。 表2:2024年更新的部分重点大模型产品,其中采用MoE架构的显著增多 以通义千问Qwen1.5-MoE-A2.7B为例,采用MoE后大幅降低训练成本,提升推理速度。该模型发布于2024年3月28日。其总参数量为143亿,拥有2.7B个激活参数,相比Qwen1.5-7B,Qwen1.5-MoE-A2.7B的训练成本降低了75%,推理速度提升了1.74倍。 图8:Qwen1.5-MoE-A2.7B训练成本降低75%,推理速度提升1.74倍 3.3.国内大模型已进入落地价格竞争阶段 3.3.1.开源模型成本大幅下降,推动行业竞争启动 国内外持续有强力开源模型推出。海外方面,谷歌Gemini、Meta的Llama 3等开源模型的推出,开发者可通过公开的大模型自行部署,大模型的获取成本越发降低。国内方面,幻方量化发布的大模型DeepSeek-V2、智谱AI入门级大模型GLM-3-Turbo(128K上下文)均实现了成本的显著压缩。 以DeepSeek-V2为例,其相对一代模型参数更多、能力更强。2024年5月6日,DeepSeek宣布开源第二代MoE模型DeepSeek-V2,该模型采用了MLA(Multi-head Latent Attention)和DeepSeek MoE架构,大幅减少计算量和推理显存。DeepSeek-V2具备236B总参数、21B激活参数,支持128k上下文长度,大致达到70B~110B Dense结构的模型能力。具体而言,其中文综合能力(Align Bench)在开源模型中最强,与GPT-4-Turbo、文心4.0等闭源模型在评测中处于同一梯队;英文综合能力(MT-Bench)与LLaMA3-70B同处第一梯队,超过最强MoE开源模型Mixtral 8x22B;知识、数学、推理、编程等榜单结果也位居前列。 图9:21B激活参数的DeepSeek-V2在开源模型中具备顶级性能 DeepSeek-V2成本更低,API定价仅为GPT-4-Turbo的近百分之一。 DeepSeek-V2消耗的显存只有同级别Dense模型的1/5~1/100,每token成本大幅降低。DeepSeek-V2 API的定价为:每百万tokens输入1元、输出2元(32K上下文),价格仅为GPT-4-Turbo的近百分之一。 图10:DeepSeek-V2中文能力较强且成本极低 图11:DeepSeek-V2的API定价约为GPT-4-Turbo的百分之一 3.3.2.GPT4o提升性能降低定价,应对开源竞争 闭源AI龙头OpenAI方面也在持续提升其产品性价比,最新GPT-4o相比GPT-4提升显著。自从GPT-4推出后,OpenAI就持续在强化性能、降低价格,从而提升其对于使用者的性价比,据微软CEO纳德拉,过去一年GPT-4性能提升了6倍,但成本降低到了之前的1/12。5月14日,OpenAI推出可实时进行音频、视觉和文本推理的全新旗舰AI模型GPT-4o,在文本测试、M3Exam等测试中,该模型超越了包括GPT-4在内的市面诸多头部大模型,相比GPT-4-Turbo,其速度提升两倍,速率限制提高了5倍,最高可达每分钟1000万token。 图12:GPT-4O在文本等多个维度显著优于包括GPT-4T在内的市面头部大模型 图13:在各个语种的M3Exam中,GPT-4O也显著优于GPT-4 虽然能力和效果大幅度提升,但是在定价方面GPT-4o相比GPT-4-Turbo降幅达50%。根据OpenAI官网,GPT-4o输入和输出每百万tokens的价格分别为5美元和15美元,而同期GPT-4-Turbo定价为10美元和30美元,此次降幅达50%。 图14:GPT-4o的API价格相比GPT-4-Turbo降幅达50% 3.3.3.国内同样开启降价模式,或可推动AI更多场景落地 字节跳动开启国内大模型价格竞争,头部厂商纷纷跟进。2024年