AI智能总结
EN VIPAI芯⽚调研:互联⽹⼤⼚需求和应⽤场景,台积电先进制程供需和价格趋势-聚焦寒武纪/昇腾/昆仑芯/海光/沐曦/平头哥 半导体,制造业 已关注 共享调研纪要2025/09/26 15:57:30 联合发布⼈:Patrick 要点 - 互联⽹⼤⼚需求和应⽤场景;- 台积电先进制程供需和价格趋势;- ⾃动驾驶芯⽚性能对⽐。 本⽂共10825字,预计阅读时间22分钟 已享VIP免费 以下是专家观点: 国内AI芯⽚⼚商的数据来源是否可靠?这些数据如何获取? 数据来源主要包括两⽅⾯:第⼀,与国内主要OEM和ODM⼚商建⽴的数据交换协议,通过统计汇总各家⼚商的实际出货情况;第⼆,与头部客户(如CSP客户、运营商)合作获取其需求预测及供应分配信息。 对于国内⼏家主流AI芯⽚⼚商的产品性能评价如何?它们在实际产业应⽤中的表现如何? H公司⽬前的产品主要⽤于传统AI业务场景,如图形处理与视觉相关任务。在⼤模型应⽤中,由于与主流⼤模型间移植⼯作复杂且资源有限,其适配性较低,⼤多数调优⼯作尚未完成。寒武纪则以⾼效能计算能⼒⻅⻓,但产能限制影响了其订单履⾏能⼒。昆仑芯更多聚焦于百度⽣态系统内需求,其外部拓展 相对有限。沐曦与摩尔线程则因产能问题或产品定位不同,在⾼端AI计算领域竞争⼒稍弱。 当前H公司在AI模型业务中的应⽤情况如何?其产品主要被⽤于哪些领域?在⼤模型和算⼒中⼼⽅⾯的现状如何? H公司⽬前的AI模型业务主要集中于传统领域,包括视觉处理、语⾳处理等传统AI任务,以及部分推荐、⼴告和搜索相关的应⽤。其产品尚未⼴泛⽤于⼤模型的训练或推理,运营商客户也主要使⽤H公司产品来运⾏⼩规模零散的⼩模型应⽤,通常⼩体量部署。此外,H公司正在与DeepSeek合作,希望未来能够将推理业务部署到910C上,但这⼀⼯作仍在进⾏中,需等待DeepSeek下⼀版本(如R1或V4)的发布以完成适配。在算⼒中⼼⽅⾯,除与少数互联⽹企业合作外,H公司建设的⼤部分算⼒中⼼利⽤率较低。 寒武纪⽬前在客户中的应⽤情况如何?特别是在字节跳动中的表现及其⾯临的挑战是什么? 寒武纪⽬前最⼤的客户是字节跳动,其产品主要⽤于推荐和⼴告业务中的⽤户画像实时训练。字节跳动采⽤寒武纪590进⾏训练,这⼀合作已持续近两年时间,⽬前已基本完成部署。在字节外其他客户中,由于缺乏类似深度优化,⼤多数⽤户反馈寒武纪产品性能仅能达到A100约70%的⽔平。寒武纪能够进⼊字节跳动市场的⼀个关键因素是其对TensorFlow框架的⽀持,⽽国内其他主流加速卡⼚商已放弃对TensorFlow的⽀持。然⽽,这种适配⼯作需要投⼊⼤量精⼒,因此其他潜在客户对寒武纪产品兴趣有限。 昆仑芯当前在推荐⼴告算法以及其他场景中的应⽤情况如何?其技术路线是否存在局限性? 昆仑芯并未⼴泛⽤于推荐⼴告算法,⽽是更多地聚焦于搜索相关业务。这⼀领域与百度⾃身需求⾼度契合,因此百度的⼤量搜索任务运⾏在昆仑芯上。在字节跳动内部,昆仑芯主要被⽤来验证⼀些⼩规模模型,如⽕⼭引擎内部的⼩模 型,但未被⽤于核⼼推荐⼴告业务。这是因为昆仑芯不⽀持TensorFlow框架,⽽字节跳动核⼼线上业务仍基于TensorFlow开发。由于迁移⾄PyTorch等框架可能带来⻛险,该转型进展缓慢。因此,不⽀持TensorFlow框架的硬件难以进⼊字节跳动核⼼市场。 H公司、寒武纪和昆仑芯未来⼀年的出货量预期如何?各⾃⾯临哪些挑战? H公司预计2026年整体出货量将下降。这⼀下降趋势主要受制于产能瓶颈、库存积压以及架构转型计划(从现有ASIC架构向GPGPU架构过渡)。此外,H公司已减少对910B和910C的新订单,并优先保障麒麟系列芯⽚⽣产。寒武纪2026年的出货量预计将有所增⻓,顺利的话其全年出货量可能达到17万⾄18万⽚,⾼峰值可能接近20万⽚,但实现这⼀⽬标存在⼀定困难。寒武纪将在2026年推出590的⼩改版型号690,该型号将在HBM容量、⽹络规格及FP8⽀持⽅⾯有所升级,并计划于第⼆季度末实现规模化⽣产。昆仑芯未来的发展潜⼒仍集中于搜索领域,但由于技术路线限制,其难以进⼊需要TensorFlow⽀持的重要市场,例如字节跳动核⼼推荐⼴告业务。同时,其下⼀代产品开发⽅向尚未明确,需要进⼀步观察市场需求变化。 寒武纪在2026年的产品规划和出货量预期如何? 寒武纪计划在2026年下半年将产品切换⾄690型号。预计590型号仍将保持约10万⽚的出货量,⽽690型号可能在下半年开始放量,预计占据接近10万⽚的产能。寒武纪前三⼤客户分别为字节跳动、南京麒麟研究院以及与秦淮合作的上海项⽬,其中字节跳动是最⼤客户。寒武纪590型号在2024年的单价为6.5万⾄7万元⼀⽚,2025年的价格基本维持不变。 昆仑芯在2025年⾄2026年的出货量、产能规划及新产品研发进展如何? 昆仑芯在2025年的出货量约为6万⽚,并预测其2026年的产能⾄少可达11万⽚,上限估计为13⾄14万⽚。昆仑芯计划于2026年推出⼀款基于现有P800(即昆仑芯三代)的改版产品,该版本采⽤双die设计,HBM内存容量提升, 互联带宽翻倍,总算⼒较现有版本提⾼⼀倍,其性能接近英伟达H100的80%。由于台积电⽣产路径尚未完全解决,该新产品⽬前⾯临⼀定的不确定性。 天数智芯、壁仞科技等⼚商在未来两年的发展动态如何? 天数智芯暂⽆下⼀代产品计划,将继续销售现有天垓系列;壁仞科技主要推⼴BR106,但受限于产能瓶颈,⽬前仅⼩规模供应地⽅算⼒中⼼和科研单位。 海光未来的发展重点及市场反馈如何? 海光计划通过第三代DCU拓展互联⽹市场,⽬前主要客户包括阿⾥巴巴和腾讯,但反馈较保守。 昆仑芯三代产品当前售价及市场价格分别是多少? 昆仑芯三代产品售价为6万元⼈⺠币/⽚;市场零售价格则为8.4万元⼈⺠币/⽚。 百度昆仑芯的供应链中,主要的晶圆代⼯合作⽅有哪些?未来是否有扩展计划? ⽬前百度昆仑芯的晶圆代⼯主要由三星提供⽀持,同时计划在后期拓展与台积电的合作。 昆仑芯⽬前确定的内部需求和外部客户订单情况如何?字节跳动等互联⽹公司对其采购意向如何? 当前昆仑芯唯⼀明确的内部需求来⾃百度,其计划在⼭⻄建设新的算⼒中⼼,并预计明年(2026年)内部使⽤量最⾼可达5万⽚。此外,今年(2025年),百度已与中国移动联合完成3万⽚算⼒中⼼项⽬交付。对于外部客户,⽬前字节跳动仍处于测试阶段,预计今年底才能确定明年的采购计划;腾讯则在⼩规 模测试后暂时搁置了进⼀步采购。因此,截⾄⽬前,⼤多数互联⽹客户尚未对明年的采购量做出承诺。 百度与中国移动在算⼒中⼼建设中的合作模式是怎样的? 在该合作模式下,中国移动负责购买设备并建设算⼒中⼼,⽽百度通过签署“3+2”租赁协议使⽤这些资源,即五年的租赁期限。每台设备每年的租赁价格约为3万元。 昆仑芯在与中国移动的合作中,未来五年租⾦价格是否会有变化? 昆仑芯每台设备卖给中国移动设备售价包括⼋卡以及其他硬件组件(如CPU和硬盘)的成本。未来五年内,租⾦价格预计不会上涨,反⽽可能因设备折旧和维护费⽤增加⽽有所下降。⽬前,中国移动以每台3万多元的租⾦进⾏回租,这⼀价格已基本确定。 昆仑芯提供的算⼒主要应⽤于哪些场景? 主要⽤于百度⽂⼼⼀⾔以及百度搜索等核⼼业务场景。 腾讯⽬前在算⼒投资及采购⽅⾯的现状如何?其加速卡与CPU的投⼊⽐例是怎样的? 腾讯⽬前主要依赖英伟达和AMD提供算⼒,同时也⼤量使⽤CPU完成业务需求。在腾讯整体资本⽀出中,加速卡占⽐不到30%,约70%的投⼊集中于CPU。这是因为腾讯的⼤量业务种类仍然运⾏在CPU上。 腾讯当前对AI算⼒需求及其未来变化趋势如何?其⼤模型训练相关资源配置情况如何? 腾讯元宝主要运⾏在H20系统上,⽤于⽀持未来元宝主要核⼼业务。腾讯⼤模型训练业务现在主要是对外租赁H100和H200。⽬前新增采购仍以CPU为主,但剩余部分采购可能会继续选择英伟达和AMD产品,占⽐预计超过50%。此 外,腾讯正在测试H公司、海光及沐曦,以评估潜在替代⽅案。 阿⾥巴巴对海光深算三号的测试结果如何,其性能表现与其他主流产品相⽐处于什么⽔平?阿⾥是否有明确采购意向? 阿⾥巴巴对海光深算三号进⾏了测试,初步反馈显示其性能⽐MI308要好,接近英伟达A100,但尚未达到该⽔平,⽐H20略⾼。⽬前阿⾥尚未完成针对AMD MI308平台的适配⼯作,因此尚未给出明确采购承诺。如果MI308优化完成后,其相关⼯作可移植到海光DCU上,则阿⾥的态度可能会更积极。 针对MI308平台优化⼯作的难度如何,这项⼯作对海光未来市场表现有何影响?如果适配不成功,阿⾥的解决⽅案是什么? MI308平台优化难度较⼤,因为部分关键ROCm优化内容涉及与Meta和微软合作开发的数据,⽽这些数据并未完全开放给AMD。⽬前阿⾥内部团队正在进⾏相关开发⼯作,计划于2025年底完成⼤部分优化。如果进展顺利,海光可能在2026年受益于这⼀成果并获得市场红利。然⽽,如果适配不成功,阿⾥可能会延续现有解决⽅案或选择其他供应商满⾜需求。 AMD的MI308在性能和性价⽐⽅⾯与英伟达的A100相⽐存在哪些差距?这些差距对其市场竞争⼒有何影响? AMD的MI308⽬前在阿⾥的实际使⽤效果中,其性能仅达到英伟达A100的70%。从价格来看,MI308单⽚售价约为1万美元,⽽A100最低售价曾达到8,000美元。以此计算,MI308的价格是A100的1.2倍,但性能却只有其70%,导致其性价⽐仅为A100的⼀半左右(约0.5到0.6)。这种情况下,MI308在推理场景中的竞争⼒显著不⾜,因为推理任务对性价⽐要求极⾼。如果⽆法提供⾄少1.2到1.3倍于现有产品的性价⽐优势,客户通常不会考虑引⼊新产品,因为额外的适配成本和资源投⼊会使整体效益下降。 客户在评估新硬件时通常采⽤什么样的⽅法和标准?为什么需要⾄少1.2到1.3 倍的性价⽐优势? 客户评估新硬件时通常分为⼏个阶段。⾸先,会⽐较单算⼒性能,如果新硬件算⼒接近现有产品且具备明显性价⽐优势(⾄少达到现有产品的1.2到1.3倍),客户才会进⼀步测试模型。在模型测试阶段,多数情况下使⽤客户线上实际运⾏模型进⾏验证,但会去除部分权重以简化测试流程。如果实测结果仍然能够达到预测值(即原有产品性能基础上的1.2到1.3倍),客户才会考虑引⼊该硬件。需要这种较⾼性价⽐优势是因为引⼊新硬件涉及⼤量额外成本,包括适配环节、⼈员培训、算法优化、新机型验证、⼩批量采购等。这些⼯程量和资源投⼊都需要通过更⾼效益来抵消,否则客户将⾯临亏损。因此,如果新硬件⽆法提供⾜够⼤的性价⽐提升,客户通常不会选择更换现有⽅案。 海光与寒武纪在技术⽔平、团队能⼒以及下游应⽤潜⼒⽅⾯有哪些主要差异? 寒武纪拥有⼀⽀规模达三四百⼈的团队,可以围绕特定客户需求进⾏深度定制化开发。⽽海光⽬前缺乏类似资源,其研发⼯作更多依赖于AMD开源架构ROCm。然⽽,AMD最新版本ROCm中的许多优化尚未开源,这限制了海光⾃身开发能⼒。因此,为弥补这⼀短板,海光采取了开放技术接⼝和规范的⽅法,希望通过第三⽅合作完成相关开发⼯作。此外,在软件⽣态建设⽅⾯,寒武纪能够主动投⼊资源⽀持多种AI场景,⽽海光则处于被动状态。⽬前海光主要专注于硬件层⾯的开发,以确保其x86架构和DCU(数据中⼼加速器)能够与客户需求匹配。在软件⽀持上,其更多依赖英特尔或AMD已有优化成果,以及第三⽅⼯具链。但总体来看,与寒武纪相⽐,海光的软件⽣态覆盖范围较窄,对AI场景⽀持⼒度不⾜。 海光当前研发模式及⽣态建设策略存在哪些局限?未来发展可能受到哪些影响? 海光当前研发模式以开放合作为主,其⾃身在软件开发上的投⼊有限。这种策略虽然可以借助第三⽅⼒量快速推进部分⼯作,但也导致其对外部资源依赖较⼤。例如,在x86架构上,它借助英特尔和AMD已有优化成果;⽽在DCU领 域,则希望通过开放技术接⼝吸引⽤户或合作伙伴进⾏适配。然⽽,这