AI智能总结
调研日期: 2025-02-07 北京首都在线科技股份有限公司是一家全球云网一体化云计算服务商,成立于2005年,于2020年在深圳证券交易所创业板成功上市。公司致力于以云服务赋能数字经济,为客户提供的云计算、大数据、人工智能等技术产品和服务贴近业务场景,行业解决方案丰富。公司在美洲、欧洲、亚太三大核心区域以及50多个国家设有24个地域区域、52个可用区、94个数据中心和上千个边缘算力节点,只需5分钟即可完成全球业务的多点部署。首都在线产品和服务涵盖数字孪生、人工智能、工业互联网、车联网、大数据、教育、金融、视频、电商、游戏、医疗、政府等多个行业领域,约40%的中国互联网百强企业都在使用首都在线的产品和服务。 公司情况介绍 随着AI大模型技术日臻成熟,其未来发展势必会对社会结构、经济形态、国家竞争力以及人类的生产生活方式产生深刻变革,未来势必会涌现出更多模型及丰富的AI应用,成为驱动社会发展不可或缺的关键力量。 在此背景下,公司的战略布局、技术路线与资源配置,始终围绕这一趋势展开,助力行业模型及垂类模型实现快速迭代升级,推动AI应用在各行业的深度渗透。公司深度践行“一体两翼”战略规划,以“一云多模”“一云多芯”“一云多池”为切入点,全力打造基于“M种大模型”与“N种芯片”的首都在线智算云平台。 “一云多模”,公司大模型平台已成功将国内的DeepSeek、智谱、千问、零一万物等国产大模型,以及国外的Llama、Bloom等主流大模型全 面部署至云平台。后续,公司还计划将各类行业应用模型全部转化为云上应用,并将模型封装为云服务。这一举措使得用户能够在平台上便捷、快速地加载并切换不同模型,高效完成训练、部署及推理任务。 “一云多芯”着重凸显平台卓越的芯片兼容性,支持英伟达、华为、燧原等多种芯片类型,用户无需关切底层硬件的差异,即可稳定获取算力支持,极大地提升了使用便捷性与算力保障。 “一云多池”则充分展现公司算力资源的灵活调配能力。公司不仅拥有自主建设的算力池,还能够灵活整合调度第三方碎片化算力资源。基于此轻资产运营模式,公司可获取海量弹性算力,显著提高算力资源利用率,为公司业务拓展与高效运营提供坚实保障。 二、投资者问答交流环节 Q1:首都在线目前GPU芯片规模如何?推理芯片和训练芯片的种类有哪些? A:目前,首都在线整体算力芯片规模已超过2万张。其中,90%的芯片为推理芯片,主要为英伟达主流推理芯片及少部分渲染推理芯片,还有部分燧原、海飞科的国产推理芯片。此外,10%为训练芯片,包括英伟达H系列芯片、华为昇腾芯片。 公司算力资源管理方面采用“一云多池”策略,2万张芯片中,60%为纳管第三方算力资源,公司进行统一调度管理。 Q2:公司和英伟达及国产芯片的合作情况如何? A:在英伟达芯片方面,公司目前使用的芯片包括英伟达主流推理芯片及H系列芯片,其中L系列芯片主要通过纳管第三方资源的方式进行调度。未来,公司会保持对英伟达新品的关注,后续一旦有新芯片推出,将及时且积极地引入。 在华为芯片方面,重点聚焦于搭建“训推一体”平台,不仅支持910B,还包括800I系列推理芯片。这些华为芯片的性能表现优秀,但由于生态体系不同,需要进行适配。公司在适配方面投入了大量资源。目前,与华为的合作项目主要落地在北京门头沟地区,并与门头沟政府合作推进。 在国产其他芯片方面,公司与燧原有深度合作,提供基于燧原GPU的MaaS服务,例如燧原的文图产品“燧图”已在游戏行业应用。此外,在庆阳,公司将燧原的芯片以云服务的形式,支持智谱AI的推理应用。这是国产燧原芯片首次被应用于智谱AI的推理任务,并实现商用落地。此外,公司与海飞科也合作建设了实验平台,正在调测紫东太初的大模型,有望在海飞科芯片上实现良好的应用。与此同时,公司还与其他几家 国产芯片厂商进行合作,主要集中于协助其与几个大模型厂家完成适配与接入,不过,仍处于技术调试阶段,尚未形成商业化的闭环。 Q3、公司为何采用“自建+纳管”的算力管理模式? A:公司采用“自建+纳管”模式,主要原因有三点: 一是盘活市场存量算力。许多地方政府和机构投资了大量算力资源,但由于找不到足够的用户,导致算力资源闲置。通过纳管模式,首都在线能够激活这些资源,有助于解决地方算力闲置问题。 二是平抑短期算力需求波动影响。按照行业发展规律,算力需求必定呈现波动上行趋势,短期内会出现算力供给过剩,导致空置率上升,这是 市场发展过程中的正常现象。公司采取了“自建+纳管”的策略,可以有效保持算力资源的灵活性。如果空置率上升,公司可以减少纳管算力的使用,以提高利润率和资源利用率;如果空置率下降,公司可以增加纳管资源的比例,以应对市场波动。 三是获得政府支持,降低算力成本。为支持地方算力产业发展,部分地区政府在算力建设方面提供补贴,使得公司可以降低运营成本,同时推动自建算力的部署。 Q4:纳管与自建模式在收入上有何区别?对公司的利润率影响如何? A:从收入角度来看,纳管模式和自建模式的收入差别不大,但在利润方面有所不同。自建模式下,由于公司自行投资建设,资产折旧周期为五年,利润率表现良好。纳管模式下,公司需要向算力提供方支付一定费用,利润率相对较低,通常在10%-20%之间。 但从风险控制的角度来看,纳管模式的优势在于公司不需要承担全部资产管理的风险。如果客户需求波动,公司可以更灵活地调整上游资源。而在自建模式下,公司需要直接管理大量算力资源,面临更高的运营风险。 Q5:未来在庆阳新建算力,公司以自建为主还是纳管为主? A:公司在庆阳新建算力,计划主要以自建为主。纳管模式虽然可以降低风险,但其资源并不完全可控,有时无法满足灵活调度的需求。而自建算力资源完全可控,可确保公司在业务运营中的自主权。公司在庆阳的战略是形成“固定+弹性”的算力组合,以维持稳定运营。 总体而言,公司计划采用40%自建、60%纳管的模式。这种比例对于云计算企业而言相对合理,既能保证控制力,又能降低业务风险。 Q6:从客户需求与租金层面综合分析,算力资源展现出何种发展趋势? A:单token算力成本持续下降是行业的必然趋势,同时,短期内算力的供需不平衡,也会导致空置率上升,这是市场发展过程中的正常现象。许多企业的算力出租率低于预期,并非个别情况,而是行业阶段性的挑战。首都在线采取“自建+纳管”相结合的策略,以保持算力资源的灵活性。如果空置率上升,公司可以减少纳管算力的使用,以提高利润率和资源利用率;如果空置率下降,公司可以增加纳管资源的比例,以应对市场波动。 前期,公司空置率较高的问题主要集中在早期投入的A5000和3090芯片,但公司采取了两项措施进行优化: 1.通过“自建+纳管”模式保持资源的弹性,即便客户需求减少,公司仍可调整自有和纳管算力的比例,以维持高出租率。 2.随着DeepSeek的推出,公司将部分早期算力资源加载到大模型平台,以模型即服务(MaaS)的方式销售,大幅降低闲置算力,提升整体利用率。 目前,首都在线的利用率良好,运营策略较为稳定。 Q7:国产芯片在性价比和稳定性方面如何?公司未来扩建计划中,国产芯片的比例会占多少? A:目前国产芯片的发展存在两项挑战。一是性价比。英伟达的芯片生产规模大,采购成本相对较低,而国产芯片的生产规模较小,因此采购 成本较高,这导致国产芯片整体性价比成为挑战。二是生态兼容。华为的计算架构与英伟达不同,需要进行额外的翻译适配。公司在这方面投入了大量资源,帮助国产芯片优化兼容性和运行效率。 对于未来的算力扩建,公司仍坚持“以客户需求”为核心。英伟达的高端芯片,公司会继续合法合规的采购和使用;如国产芯片可满足推理应用,公司将优先采用国产芯片。 Q8:国产芯片和英伟达芯片在财务折旧年限与使用年限上是否相同? A:在财务上,所有芯片的折旧年限都是一致的,通常为五年。在使用年限上,目前,公司最早一批国产芯片已经使用近两年,其长期表现仍需进一步观察。 Q9:公司的智能算力中心是否由公司内部团队进行运维? A:是的,公司本身就是云计算起步,因此智能算力中心的运维主要由公司内部团队负责。机房运维方面,如果是租赁的机房,则由机房方进行基础设施维护,而设备运维和云平台管理均由公司自主完成。此外,公司已实现90%以上的远程运维和调试,减少了对现场运维人员的依赖。现场运维团队按照区域划分,采用“全球网格化管理”模式。例如,在海外,每个洲可能配备一至两名运维人员;在国内,则按区域划分,如华东区可能安排数名技术人员进行支持。 Q10:随着推理需求的快速增长,市场普遍预期未来可能会出现算力资源紧缺和租金上涨的情况。从短期来看,未来半年到一年的价格趋势如何? A:从长期来看,算力的需求一定会增长,但单算力成本下降是必然趋势。这一趋势主要体现在以下几个方面: 1.单算力成本持续下降:即使未来英伟达、华为推出更高性能的芯片,其设备单价可能会上升,但单位算力成本仍会下降。这是技术发展的必然结果,否则AI产业难以蓬勃发展。 2.算力供应充足,价格下降:目前,中国各地都在建设智能算力中心,包括很多非行业内企业也在投资算力,这导致市场短期内算力供应较为充足,短期价格下降。 3.AI行业进入大规模应用阶段,算力需求上升:随着DeepSeek等大模型的推广,行业正从单纯的数据训练转向应用端的爆发。各行业都在 开发AI应用,推理需求将持续增长。从发展趋势来看,AI行业正在经历类似云计算早期的发展路径。最初,银行等大型企业自建IDC机房,但随着云计算的发展,越来越多的企业选择租赁云服务器,而不是自建基础设施。AI算力也将经历类似的演变,从“客户购买裸金属服务器自行部署”逐步转向“租用云端AI推理服务”。算力需求的形态正在改变,云平台和推理服务将成为AI创业者和企业的主流选择。 总而言之,短期内算力租赁价格仍会下降,因市场供应充足。而长期来看,随着AI推理需求持续增长,云端推理成为主流,将逐步替代算力租赁模式。算力需求形式将发生根本性变化,对云平台的技术要求提高,AI行业将迎来更广泛的商业化落地。 Q11:如何看待当前中国云计算行业的竞争格局? A:中国云计算行业可以分为两类:算力租赁和云计算,两者是完全不同的概念。目前,国内云计算行业可以分为两个梯队: 近年来,国内主要的大云厂商逐渐向大模型生态闭环发展。其各自的大模型均由自己的云平台支持。而首都在线的核心竞争力在于“中立云性”,不涉及自研大模型,专注于提供云计算和算力调度服务,成为各大模型企业的合作伙伴。 Q12:公司提到推理价格下降,在此趋势下,会对公司的营收造成什么影响? A:这里所说的推理价格下降,指的是单Token的成本下降,而不是服务器租赁价格的下降。这类似于计算机行业的发展逻辑,如今电脑相比上一代,单位处理能力的成本降低了,可电脑整体价格未必降低。同理,AI算力的发展也是如此,设备的计算能力越来越强,单Token成本下降,但AI应用的需求量在大幅增长。因此总体仍呈现增长趋势。 总的来看,单Token成本下降并不会影响公司的营收,反而会促进AI行业的快速发展,有望对公司经营带来正向的影响。 Q13:当前AI算力需求的增长速度如何?如果按季度或年度来看,大致的增长趋势是怎样的? A:AI算力需求的增长并不是线性增长,而是呈现脉冲式上升或阶梯式跃迁的模式。总体来看,AI算力需求长期呈上升趋势,但在不同阶段增长速率不同,可以形象地称为“螺旋式上升”。当行业进入新的技术周期,例如DeepSeek的发布、GPT-5等新模型推出,都会带来新一轮的算力需求爆发。而在市场调整期,需求增长可能会趋于平缓。因此,虽然具体的增长速率难以精准预测,但整体趋势是持续上升的,并且会在关键技术突破节点出现快速增长。 Q14:目前,公司从客户需求及客户结构角度有哪些变化? A:用户需求整体趋势发生了变化,过去用户主要租赁裸金属服务器,而现在越来越多用户希望直接使用带有模型的云计算服务,对云平台的要求越来越高。主要的