您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [国信证券]:国内互联网云厂商业绩与大模型进展跟踪:预计Deepseek带动云收入加速、利润率提升,大模型追赶海外先进水平 - 发现报告

国内互联网云厂商业绩与大模型进展跟踪:预计Deepseek带动云收入加速、利润率提升,大模型追赶海外先进水平

文化传媒 2025-05-14 张伦可 国信证券 胡冠群
报告封面

事项: 国内互联网厂商即将发布业绩,一季度Deepseek深度推理开源模型加速传统客户的AI渗透、拓展应用场景,带动云业务加速与大模型迭代。 国信互联网观点:1)云厂商业绩:预计收入环比增速加速,稳态利润率提升。受Deepseek热度带动,一季度AI云相关业务增长迅速,推动多家云厂商收入环比增幅加快。同时需求放量提升GPU租赁相关价格,云业务稳态利润率上升。预计字节云、腾讯云边际净利率提升,阿里云因资本开支提升、折摊较高,预计经调EBITA维持9%+。2)资本开支与算力供给:预计一季度资本开支环比增加,今年算力缺口风险较低。 2025年云厂商持续加大AI投入,预计一季度资本开支环比增加。对于算力供给方面,今年算力缺口风险低,主要因提前储备算力、通过算力租赁等渠道解决潜在缺口,对H20交付持中性偏乐观态度,预计难现激烈价格战。同时云厂商积极采用国产芯片替代,后续算力供给情况取决于国产芯片交付节奏、良率和性能。3)云厂商大模型进展:伴随Deepseek深度推理开源模型出现,国内大厂大模型领域进展显著,与国际顶尖模型差距缩小。阿里通义千问Qwen3融合双思考模式,测评超过DeepSeekR1、OpenAIO1、Grok 3;腾讯成立相关模型部,混元广泛应用于内部业务场景;字节跳动豆包1.5性能优异,推出多款AI应用; 百度聚焦模型性能提升与企业应用落地,文心大模型4.5Turbo多模态与推理能力提升显著。 评论: 国内互联网厂商云业务业绩情况 Deepseek深度推理开源模型将加速传统客户的AI渗透、拓展应用场景,国内云厂商一季度预计在Deepseek热度带动收入增速持续加速、AI云占比持续提升。我们预计有望拉动云业务大盘今年实现接近20%的同比增长。 图1:国内云厂商云收入与同比变化预测(百万元/%) 收入端:预计一季度在Deepseek的热度下AI云相关快速增长,驱动大部分云厂商收入环比增幅继续加速。预计阿里云加速至同比+23%YoY(环比+10pcts)、腾讯云加速至18%YoY(环比+5pcts、同比+3pcts)、百度云预计+26%YoY(同比+14%、环比持平)。其中收入的持续加速主要来自于AI云业务的快速增长,如阿里AI云相关业务一季度营收同比翻倍以上增长,腾讯AI云业务一季度营收也有50%以上同比增长,远高于云业务整体增速。 利润端:需求放量带动GPU相关价格提升,云业务稳态利润率提升,其中阿里云利润率提升与资本开支折摊增长抵消。国内传统云业务利润率较低主要由于CPU等传统算力供给过剩,而一季度伴随着Deepseek开源模型带动下游AI需求,不仅A云业务如GPU租赁相关毛利有所提升,规模效应下也带动了传统云业务利润率改善。因此,一季度腾讯云、字节云边际净利润率有所提升,而阿里云由于资本开支提升明显,折摊增长与利润率提升抵消,预计一季度维持经调EBITA 9%+。 投资端:25年云厂商预计将持续加大对AI的投入,预计一季度投资环比增加,整体Capex投入量级上字节、阿里投入领先。在投资节奏上,受到H20断供消息影响,不少云厂商在一季度追加NV芯片。预计阿里25Q1 Capex预计延续四季度高投入,同比接近200%。预计腾讯Capex维持去年四季度高投入,实现近200%的同比增长。百度整体Capex稳健,预计一季度保持个位数同比增长。 算力供给:今年算力缺口风险较低,预计云厂不会演绎激烈价格战,关注下半年国产卡交付节奏和性能。对下单的H20今年是否能交付我们持中性偏乐观态度,几方特别是英伟达积极协商、有望解决或给予替代方案。今年内算力缺口风险较低,主要因提前储备算力、通过算力租赁等渠道解决潜在缺口。预计今年算力供给不会走向过剩,很难演绎激烈价格战。同时,为了不再掣肘于芯片禁令,各家云厂商积极下单、采用国产芯片替代NV芯片,后续算力供给情况主要看国内芯片厂商以及代工厂的交付节奏、良率和性能。 2025年云厂商大模型进展 2025年,伴随着Deepseek深度推理开源模型的出现,国内大厂在大模型领域进展显著。虽然与国际顶尖模型相比,国内大模型在高难度任务处理、多模态等方面尚存差距,但在深度推理模型进展快速、差距逐渐缩小。 (1)阿里:开源推动生态发展,最新的通义千问大语言模型Qwen3,融合“快思考”与“慢思考”,能依任务复杂度灵活切换模式,测评结果超过DeepSeekR1等,位列开源系列模型榜首,超越闭源OpenAI O1、Grok 3; (2)腾讯:成立大语言模型部与多模态模型部,混元Turbo S首字响应提速,混元T1在代码评测中成绩领先。多模态模型部在跨模态融合方面发力,混元已广泛应用于内部业务场景; (3)字节跳动:注重产品导向的性能应用结合。豆包1.5深度思考模型,具有低延迟、参数激活灵活的特性,在医疗、办公等领域应用效果显著。还推出超15款AI应用,基础模型调用量剧增,积极布局端侧智能领域; (4)百度:聚焦模型性能提升与企业应用落地。4月25日发布文心大模型4.5Turbo和文心大模型X1 Turbo,多模态与推理能力提升显著,位列行业第一梯队,同时大幅降低推理成本; 表1;2025年国内云厂商大模型进展 时间 公司 大模型进展及发布事件 1月22日 字节跳动 发布豆包大模型1.5Pro,采用大规模稀疏MoE架构,包括视觉理解模型和实时语音模型,在自然语言处理与理解领域表现出色,超越GPT-4o和Claude3.5Sonnet等 1月24日 Deepseek DeepSeek-R1模型发布,在ChatbotArena上排名第四,在最佳开源LM中排名第一。该模型是671B参数专家混合(MoE)模型,通过大规模强化学习训练,擅长理解和处理长篇内容,在数学和代码生成等复杂任务中性能卓越 2月初 阿里巴巴 发布Qwen2.5-Max,在超过20万亿个代币上进行预训练,利用Mixture-of-Experts架构,具有32K令牌上下文窗口,适用于各种企业应用程序 2月14日 百度 官方发布消息将陆续推出文心大模型4.5系列,并于6月30日起正式开源 3月 阿里巴巴 发布QwQ-32B,因其数学推理和编码能力突出,与DeepSeekR1等大型模型有效竞争,同时需要的计算资源明显减少 3月16日 百度 发布文心大模型4.5和文心大模型X1,两款模型在文心一言官网上线,免费向用户开放 4月14日 字节跳动 正式公布智能推理模型Seed-Thinking-v1.5的技术细节。由字节跳动Seed团队研发,采用混合专家(MoE)架构,总参数量200B,激活参数20B,在多个专业领域和通用任务如数学、编程、科学推理以及创意写作等方面有显著提升,单位推理成本相比于DeepSeekR1降低了50% 4月17日 字节跳动 旗下火山引擎面向B端发布豆包1.5深度思考模型,是字节跳动首款推理模型,可在解决问题时“边想边搜”,根据目标规划搜索路径,同时具备视觉推理能力,能综合理解图片中的各类信息 4月18日 阿里巴巴 发布端到端多模态AI模型Qwen2.5-Omni-7B 4月21日 腾讯 混元大模型团队推出自研深度思考模型混元T1正式版。其前身是2月中 投资建议: 建议关注云厂商AI领域进展,关注AI大模型进展。 风险提示: AI模型技术发展不及预期,AI应用商业化进展不及预期,大模型幻觉、伦理等安全性问题。