您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [未知机构]:智算中心如何撑起大模型时代的蓝图? - 发现报告

智算中心如何撑起大模型时代的蓝图?

2025-07-17 未知机构 杨春
报告封面

发言人2 01:43二是以拉曼千问music为代表的开源普惠化的一个路径,旨在通过开放技术构建广泛的开发者社区来赢得市场。发言人1 01:56这两种路径的博弈与共存定义了当前市场的竞争格局。发言人1 02:03从基座大模型调用量的规模来看,随着大模型进入指数级增长的产业应用期,市场调用量正迅速向具备云基础设施以及含量、应用场景双重优势的头部厂商归拢。发言人1 02:21从2024年至今,大模型的调用量指数呈指数级增长,公有云大模型调用量正经历爆发式的增长。发言人1 02:31从2024年的一月份的8000亿talking增长至2025年4月份的71.8万亿,标志着市场已经从前期的技术验证和小小范围试全面迈向大规模产业应用的新阶段。发言人1 02:50其次,市场竞争格局已清晰,呈现出一超两强的一个寡头形态。发言人1 02:56佛山引擎凭借其庞大的应用生态的区动,占据了近半壁的江山,市场领导者地位较为显著。发言人1 03:05阿里与百度智能云则构成稳固的领导者的一个梯队,共同分割了近40%的一个市场。发言人1 03:15从基础大模型厂商竞争差异化路线来看,大模型厂商正在告别技术参数与价格的一个同质化,内置全面转向依托各自核金鼎付展开差异化战略的一个新阶段。发言人1 03:33随着时间的推移,大模型厂商从初期卷模型参数及价格的一个同质化竞争,已经逐步的去演变成为寻求差异化发展的信息格局。发言人1 03:48例如百度智能云依托云智一体的全站路线,致力于产业深度融合。阿里云则专注mass生态,通讯人选择常见驱动生态嵌入的一个务实路径。科大讯飞则深跟行业垂直整合的一个根据地模式,火山引擎以应用反腐技术双轮驱动。发言人2 04:02科大讯飞则深跟行业垂直整合的一个根据地模式,火山引擎以应用反腐技术双轮驱动。发言人1 04:12 AI基建以及开源 而deep sec则凭借性价比的一个非对称性创新,在全球技术社区另题西径。发言人1 04:23接下来我们来看一下关于弹幕新基础设施层的一个产业洞察大模型。发言人1 04:31基础设施层首先我们来看一下计算中心的一个基础构成。发言人1 04:38计算中心底层就基础设施体系高度复杂,涵盖了工配、配电、制冷机柜布线、防雷防火等多系统协同。发言人2 04:38计算中心底层就基础设施体系高度复杂,涵盖了工配电、制冷机柜布线、防雷防火等多系统协同。发言人1 04:50核心在于保障算力设备的一个高可用性和稳定性,其中分为三个层级,L1L0为楼宇设施,包含了供配电、照明、传输、安保、防火等。发言人2 04:50核心在于保障算力设备的一个高可用性和稳定性,其中分为三个层级。L1L0为楼宇设施,包含了供配电、照明、传输、安保、防火等。发言人1 05:08L一基础设施包含电源、制冷机柜安全以及机房管理等。发言人1 05:14I2是包含IT设施,其主要为服务器、存储设备、网络设备等。发言人1 05:24接下来我们来看一下GPU芯片的它的一个功耗增加的情况。发言人1 05:30现代GPU芯片它以精度可调互联增强以及极限功耗为特征,在大幅释放I算力的同时,对峙算基础设施提出结构性重构的要求。发言人1 05:45而新服器I服务器正向着高精度一勾算力以及极限贷宽互联,以及超限性的一个能耗密度,引进重构数据中心的供电散热以及系统架构的边界。发言人1 06:07从它的一个成本影响因素来看,计算中心造价是由客户需求、技术方案、重新设计、规模、区位以及设备选型等多因素共同决定定的。发言人1 06:21 呈现出高定高度的一个定制化与系统性的一个成本差异。发言人1 06:28具体来看从客户群体来看,不同的客户群体它对建设计算中心工艺部分造价有着明显的一个差异。发言人1 06:39例如金融行业客户重视安全性,对计算中心电气暖通系统的一个安全性要求比较高,建设成本也比较高。互联网客户则会更加的注重它的一个能效的指标,注重经济性,建设成本相对较低。发言人2 06:49互联网客户则会更加的注重它的一个能效的指标,注重经济性,建设成本相对较低。发言人1 06:59从技术方案架构来看,制冷系统包含了制冷模式、风冷模式、冷冻水系统、自然冷却技术、辅泵间接蒸发冷等各种形式。发言人1 07:12供电架构包含了单单路UPS加试电,双路UPSTVDC高压值加上试点,以及包括各种各样的一个电池系统。发言人1 07:26不同的架构也是会影响到计算中心的一个机电造价的因素之一。发言人1 07:32从设计成语标准化来看。发言人1 07:36不同的可靠性级别对计算中心的造价也是有着显著的影响的。发言人1 07:43根据国标要求的数据中心分为三个级别,按照C级别的标准供电采用单独轮禄建设的成本是比较低的。发言人1 07:52如果采用低级的标准,N加一乘以配置成本预计会增加10%到20%。发言人1 07:58如果采用为级的标准,22容错配置成本预计增加30%到50%。发言人1 08:05从规模效应来看,设备采购的它的一个折扣,计算中心的成本很大程度取决于项目设备采购的价格。发言人1 08:17计算中心的体量越大,对于设备采购的一个价格审批折扣则则会相对越低。 发言人1 08:23施工的效率的提升。发言人1 08:24基于计算中心的一个快速交付和快速响应能力,数算中心采用模块化预制方式,可以大大的去缩短施工的工期,从而去减少人工成本。发言人1 08:38从地域条件来看,气候条件会影响到制冷成本。发言人2 08:38从地域条件来看,气候条件会影响到制冷成本。发言人1 08:43在北方地区利用先天的一个气候条件,全年50%以上的时间都可以停停止冷机或者是压缩机的一个运行。发言人1 08:53大概降这个一制冷设备的投资。发言人1 08:57从土地与基建成本来看,一线成本的它的一个土地成本性价比较性价比较低。然后间接的能够推动间接的也推动了计算中心的一个成本。发言人2 09:04然后间接的能够推动间接的也推动了计算中心的一个成本。发言人1 09:12环保导致了一些一线城市被迫的去采用储能系统作为后备电源,也会增加初期的一个造价。发言人1 09:21从设备国产化率来看,计算中心公益部分,尤其是机电基础设施造价周,设备价格占比是比较大的。发言人2 09:21从设备国产化率来看,计算中心公益部分,尤其是机电基础设施造价周,设备价格占比是比较大的。发言人1 09:32占比最大的两个系统,电器系统和暖通系统。发言人2 09:32占比最大的两个系统,电器系统和暖通系统。发言人1 09:40 除了部分设备沿用合资品牌外,很多设计品牌已经有合资品牌像已经由合资品牌向国产品牌转换的一个趋势,从而有效的去减少成本。发言人1 09:55接下来我们来看一下计算中它的一个成本与能耗。发言人1 10:04高密度的计算中心的成本与能耗的矛盾,正在逼迫系统从设备堆叠向冷塞协同。发言人1 10:13那一一个架构性变革过度,这种效率已经成为TCLO和PUE优化的一个核心突破口。发言人1 10:25以一个英伟达IP百构成的千卡集群计算中心为例,前期投入的成本大概包含购买三设备,网络设备、存储和安全设备、平台软件以及叶轮改造的一个成本,大概是在3.5亿元左右。发言人1 10:43而计算中心不仅仅需要在前期投入重资产,后续在运行的过程中,还是要继续的去投入日常的电内维护人员费用等等。发言人1 10:55经测算,每年的支出大概是在5000万元左右。发言人1 11:00而从数据中心能耗的结构来看,当前数据中心能耗结构高度集中于IC设备与制冷设备。发言人1 11:09前者占比达67%,反映出计算与存储负载仍是能耗核心的一个驱动。发言人1 11:17而这种系统能耗高达27%点A成为除IT主设备外最大的耗来源,凸显其在PV优化中的一个关键地位。发言人1 11:29供电系统与照明以及其他的基础设施占总能耗6%,其表明编辑节能空间有限,进一步压缩票意的一个突破口,需要聚焦于郑链路的一个效率革新,与IT设备的算能比提升整体结构体现出数据中心已经进入到了热电协同主导的一个能效优化阶段。发言人1 12:00然后治理重点正在由外围系统转向复杂耦合的一个核心路径。接下来我们来看一下计算中心的商业模式。发言人2 12:10接下来我们来看一下计算中心的商业模式。 发言人1 12:16商业模式正在从传统的一个基础设施托管,像算力平台模型以及应用权链条服务引进服务形态高度多元化,以匹配不同类型的一个客户需求。发言人1 12:31底层的S层则通过机房托管与算力租赁的形式,形成规模化的一个资源池,从而解决基础设施弹性供给的问题是支撑这三中心的土地中层pass ms通过抽象AI工具与模型服务形成通用化的能力。发言人1 12:56中台推动智力生产要素的标准化与模块化,是加速算法落地与技术扩散的一个流水线。发言人1 13:07顶层的下层的则完成面向垂直场景的最后一公里转化,直接连接行业用户的价值,建构建高黏性的I服务生态。发言人1 13:21整体上计算中心商业模式正在由资源密集型像能力密集型跃迁。发言人1 13:30供给侧由重资产IDC运营商延伸至轻资轻资产模型与平台提供方。发言人1 13:39需求侧则从头部企业向中小型企业乃至行业用户全覆盖,体现出计算能力及服务化、模块化、生态化的一个典型产业升级趋势。发言人1 13:57从制冷技术POE发展的趋势来看,数据中心制冷技术正在由传统风冷像液冷跃迁,液冷以系统级能效最优和高热觅支撑能力,成为满足下一代生中心票A控制红线的一个核心路径。发言人1 14:17当前税中心和正技术正在围绕单位算力能效最优目标发生范式转移。发言人1 14:26应激素引起在热交换路径最短,传输效率最高、系统集成度最强等方面具备物理极限优势,以在QA小于1.10的高性能场景中形成实际的一个部署优势。发言人1 14:45尤其是在相变与非相变静默释放,具备支撑大约30千瓦每级硅热密度的能力,代表下一代高密度政策中心的一个的主流制冷趋势。发言人2 14:59相比之下自然冷技术算在特定气候具备阶段性的一个降PUE的价值。发言人1 14:59 相比之下自然冷技术在在特定气候具备阶段性的一个降PUE的价值。但在高负载稳定性以及年均适应性和空间利用率方面是存在一定的瓶颈的。发言人2 15:09但在高负载稳定性以及年均适应性和空间利用率方面是存在一定的瓶颈的。发言人1 15:16而冷冻水与风冷系统Q一普遍在1.3以上,已经比较难的去满足未来中国双碳战略以及侦探中心基础设施能效红线的一个约束。发言人1 15:30这种技术正在从风冷冷冻水再冷到夜冷,呈现加速夜间的态势。发言人1 15:39本质驱动是热功耗密度的一个攀升与绿色算力高性目标之间的一个博弈。发言人1 15:49从供电系统来看,数据中心供电系统正在由静态供电网络,像智能化、高成渝、高响应性的多级能质协同架构升级。发言人1 16:04UPS在其中承担着电能治理与系统耦合的一个核心职能。发言人1 16:13接下来我们来看一下数据中心,计算中心整体的一个分布情况。发言人1 16:21目前中国投运债券规划计算中心项目的一个区域分布情况,正在由资源承载与需求牵引双流驱动,呈现出东部聚集化于中西部资源导向型的一个功能性分工格局。发言人1 16:43中国计算中心项目布局呈现出东部聚集,西部分散的一个区域。发言人1 16:51其中江苏、广东、山东等东部经济强省合计占比超过20%。发言人1 16:58依托预算的需求密集,网络基础完备,电力保障能力强等优势,成为重量经济基础设施建设的一个核心承载区。发言人1 17:09与此同时中西部地区如内蒙古、四川惠州也是在一呈现加速布局的状态,以低电价、土地资源充裕以及政策引导为支撑,构建东数西算的一个典型落地场景。 发言人1 17:26整体来看区分不体现出赛基础设施正在由资源导向走向需求资源政策多因素耦合的一个驱动。发言人1 17:36头部省份进入以应用迁移为核心的职业化发展阶段,非投部地区则更多的去承担是外溢以及低成本承接的一个角色,形成分工明确的一个主干边缘