证券研究报告/行业研究 豆包大模型迎来重磅更新,AI应用繁荣推动算力基础设施建设 ——人工智能行业专题研究 投资评级:看好 分析师:吴起涤执业登记编号:A0190523020001wuqidi@yd.com.cn研究助理:程治执业登记编号:A0190123070008chengzhi@yd.com.cn 人工智能指数与沪深300指数走势对比 人工智能指数 沪深300 40%20% 0% -20%-40% 2024/1 2024/5 2024/9 资料来源:Wind,源达信息证券研究所 1.《人工智能专题研究系列一:大模型推动各行业AI应用渗透》2023.08.022.《人工智能专题研究系列二:AI大模型开展算力竞赛,推动AI基础设施建设》2023.08.033.《人工智能专题研究系列三:Gemini1.0有望拉动新一轮AI产业革新,算力产业链受益确定性强》2023.12.124.《人工智能专题研究系列四:OpenAI发布Sora文生视频模型,AI行业持续高速发展》2024.02.195.《人工智能专题研究系列五:Kimi智能助手热度高涨,国产大模型加速发展》2024.03.266.《数据中心液冷技术专题研究:算力扩建浪潮下服务器高密度、高耗能特征显著,催动液冷技术市场快速扩容》2024.08.15 投资要点 豆包大模型重磅更新,有望带动AI应用市场繁荣 2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并对通用模型Pro、音乐生产模型和文生图模型性能升级。根据智源研究院发布的FlagEval“百模”评测结果,豆包通用模型Pro在大语言模型总榜中主观评测得分最高,豆包视觉理解模型和文生图模型在多模态模型主观测评中得分第二。豆包视觉理解大模型和3D生产大模型具备的内容识别、视觉描述和3D内容生成能力进一步增强AI应用实用性,而使用成本相比行业价格可降低85%,有望推动AI应用市场的商业繁荣。 大模型的大规模商业化应用已成熟,拉动算力基础设施建设 人工智能行业已跨过AI大模型大规模成熟商业化应用的节点,国内厂商加大对AIAgent等新一代人工智能应用的投入。AI大模型性能提升所需的千亿级参数训练及应用端繁荣对算力规模的需求,都将推动算力基础设施的建设。根据IDC数据,2024年全球人工智能资本开支有望达2350亿美元,并预计2028年增长至6320亿美元,复合增速达29%。此外生成式人工智能资本开支 2024-2028年GAGR有望达59%,显著高于其他人工智能技术的22%。 算力基础设施建设趋势下,核心供应链环节将充分受益 人工智能行业带动算力基础设施建设趋势下,服务器、液冷设备、芯片及光模块等是供应链的核心环节。1)服务器:服务器是算力载体,AI服务器比普通服务器对算力及存储性能要求更高,2024年全球普通AI服务器和高端AI服务器出货量分别为72.5和54.3万台,分别同比增长54.2%和172.0%。2)液冷设备:液冷服务器具有低能耗、高散热优点,符合高算力数据中心需求;3)芯片:芯片是算力大脑,卡脖子风险最高,国产芯片亟待突破。4)光模块:800G和1.6T高端光模块用量有望大幅提升,国产公司在全球市场具有领先地位。 投资建议 豆包大模型产品力大幅提升,并大幅降低人工智能大模型使用成本,有望推动AI应用的商业繁荣。建议关注服务器、液冷设备、芯片和光模块等领域的投资机会:1)服务器:浪潮信息、中科曙光;2)液冷设备:英维克;3)芯片:海光信息;4)光模块:中际旭创、天孚通信、光迅科技。 风险提示 AI应用渗透不及预期;算力开支不及预期;宏观经济不及预期;竞争加剧。 请阅读最后评级说明和重要声明 目录 一、豆包大模型产品力大幅增强,推动AI应用商业繁荣4 二、人工智能产业加快增长,应用及算力是两大支柱8 三、算力产业链:服务器是算力基础设施11 1.大模型打开算力需求,服务器建设规模快速增长11 2.液冷技术低能耗高散热,受益算力扩建浪潮12 四、算力产业链:芯片是智能核心,国产化短板明显16 五、算力产业链:光模块快速放量,产品结构向高端升级18 六、投资建议21 1.建议关注21 2.行业重点公司一致盈利预测21 七、风险提示22 图表目录 图1:豆包大模型产品矩阵丰富4 图2:豆包视觉理解模型具备更强内容识别能力5 图3:豆包视觉理解模型具备更强理解和推理能力5 图4:火山引擎首次发布豆包3D生成模型5 图5:豆包3D生成模型可根据文本生成3D场景5 图6:豆包通用模型Pro综合能力大幅提升6 图7:通用模型Pro在指令遵循、代码、数学等指标对标GPT-4o6 图8:豆包文生图模型能力升级6 图9:豆包音乐模型能力升级6 图10:豆包通用模型Pro在大模型测评总榜中排名第一7 图11:豆包视觉理解模型在视觉语言模型测评榜单中排名第二7 图12:豆包视觉理解模型使用成本大幅低于行业平均水平7 图13:豆包APP在11月全球AI产品榜中排名第二7 图14:预计2022-2024年全球AI支出年增速高于20%8 图15:预计2024年中国智能算力规模同比增长50%8 图16:IDC预计2024-2028年全球人工智能资本开支复合增速GAGR达29%9 图17:IDC预计2028年软件资本开支将占人工智能支出的57%9 图18:AI服务器出货量高速增长11 图19:搭载鲲鹏920处理器的鲲鹏服务器主板12 图20:华为推出昇腾系列AI算力基础设施12 图21:传统风冷技术与液冷技术原理对比13 图22:液冷技术散热能力显著优于风冷技术13 图23:液冷技术节能水平显著优于风冷技术13 图24:2019-2022年中国液冷数据中心市场规模15 图25:2022-2027年中国液冷数据中心市场规模预测15 图26:NvidiaGPUH200芯片示意图16 图27:H200较H100相比在存储性能上有大幅提升16 图28:AI大模型中东西向流量显著增加18 图29:叶脊网络架构适用于东西向流量传输18 图30:NvidiaDGXH100架构示意图19 图31:全球光模块市场在2027年有望突破200亿美元20 表1:人工智能大模型的参数规模呈指数级增长趋势8 表2:国内厂商加大对AIAgent等大模型驱动下的人工智能应用的投入10 表3:具有1750亿个模型参数的大模型训练一天需要约2917台NvidiaA100服务器11 表4:主流液冷技术与传统风冷技术冷却效果指标对比14 表5:不同密度数据中心适用的冷却技术14 表6:国产AI芯片性能指标仍与国际顶尖水平存在较大差距16 表7:BIS禁令限制高性能AI芯片向中国出口17 表8:叶脊网络架构对光模块数量需求大幅提升18 表9:NvidiaDGXH100架构所需GPU、交换机数量19 表10:中际旭创在2023年全球光模块企业排名中位居第一20 表11:万得一致盈利预测21 一、豆包大模型产品力大幅增强,推动AI应用商业繁荣 2024年12月火山引擎冬季FORCE原动力大会推出豆包视觉理解大模型和3D生产大模型,并将通用模型Pro、音乐生产模型和文生图模型升级,进一步丰富产品矩阵。2024年5月火山引擎春季FORCE原动力大会首次发布豆包大模型系列产品以来,仅7个月就再度升级,并在多项大模型能力测评榜单中居于前列。本次大会新推出的豆包视觉理解大模型和3D生产大模型拓展了模型的内容识别、视觉描述和3D内容生成能力,并显著降低使用成本,有望推动人工智能应用端的商业繁荣。 图1:豆包大模型产品矩阵丰富 资料来源:火山引擎,源达信息证券研究所 豆包视觉理解模型具备更强内容识别能力和理解推理能力。豆包视觉理解模型具备强大的图片理解与推理能力及精准的指令理解能力。模型在图像文本信息抽取、基于图像的推理任务上有展现出了强大的性能,能够应用于更复杂、更广泛的视觉问答任务。比如模型可描述图片内容并根据图片内容进行提问。此外,该模型可完成深度的图片理解与推理,在表格图像、数学问题、代码图像等复杂推理场景下完成任务。 图2:豆包视觉理解模型具备更强内容识别能力图3:豆包视觉理解模型具备更强理解和推理能力 资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所 火山引擎冬季FORCE原动力大会首次发布豆包3D生成模型。该模型可支持文生3D、图生3D及多模态生成等诸多功能,模型与火山引擎数字孪生平台veOmniverse结合使用,可高效完成智能训练、数据合成和数字资产制作,成为一套支持AIGC创作的物理世界仿真模拟器。 图4:火山引擎首次发布豆包3D生成模型图5:豆包3D生成模型可根据文本生成3D场景 资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所 火山引擎对豆包通用模型Pro进行升级,模型性能大幅提升。豆包通用模型Pro相比2024年5月发布版本,在综合能力上提升32%,与GPT-4o持平,而使用成本仅是其八分之一。模型在指令遵循、代码、专业知识、数学层面对齐GPT-4o水平,其中指令遵循能力提升9%,代码能力提升58%,GPQA专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%。 资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所 火山引擎对豆包文生图模型和音乐模型能力升级。1)豆包文生图模型:模型在通用性、可控性、高质量方面实现突破,并新增一键海报和一键P图功能,可根据用户简单指令对图片进行精准编辑,并加强了对文字细节的指令遵循能力。2)豆包音乐模型:可根据用户简单描述或上传图片,生成时长3分钟的包含旋律、歌词和演唱等元素在内的音乐作品,包括前奏、主歌、副歌、间奏、过渡段等复杂结构,并支持局部修改功能,在针对部分歌词修改后仍能在原有旋律的节奏框架内适配。 图8:豆包文生图模型能力升级图9:豆包音乐模型能力升级 资料来源:火山引擎,源达信息证券研究所资料来源:火山引擎,源达信息证券研究所 豆包大模型能力显著提升,在多项能力测评中排名前列。根据2024年12月19日智源研究院发布的FlagEval“百模”评测结果,在闭源大模型评测能力总榜中,豆包通用模型Pro在大语言模型总榜中主观评测得分最高;多模态模型评测总榜中,豆包视觉理解模型和文生图模型的主观测评得分均排名第二。 资料来源:智源研究院,源达信息证券研究所资料来源:智源研究院,源达信息证券研究所 豆包视觉理解模型使用成本大幅低于行业平均水平,有望推动AI应用商业化成熟。根据火山引擎冬季FORCE原动力大会数据,豆包视觉理解模型的使用成本是0.003元/千Tokens,大幅低于GPT-4o的0.0175元/千Tokens,比行业价格低85%,大模型使用成本降低有望推动AI应用商业化。根据AI产品榜数据,豆包APP在2024年11月全球AI产品榜中排名第二,在终端应用的渗透率进一步提升。 图12:豆包视觉理解模型使用成本大幅低于行业平均水平图13:豆包APP在11月全球AI产品榜中排名第二 资料来源:火山引擎,源达信息证券研究所资料来源:智源研究院,源达信息证券研究所 二、人工智能产业加快增长,应用及算力是两大支柱 AI大模型对算力需求大,推动AI基础设施建设。AIGC行业进入高速发展期,AI大模型性能持续提升的背后是千亿级以上的参数训练,带来对算力的高额需求,有望推动新一轮AI基础设施建设。根据OpenAI官网,AI模型训练计算量自2012年起每3.4个月就增长一倍。以GPT-3模型为例,根据lambdalabs数据,该模型参数规模达1750亿,完整训练运算量达3640PFlop/s-days(以3640PFlop/s速度进行运算,需要3640天)。模型完成单次训练约需要355个CPU年并耗费460万美元(假设采用NvidiaTeslaV100芯片)。 表1:人工智能大模型的参数规模呈指数级增长趋势 Models Relea