2025年6月3日chen.huang@firstshanghai.com.hk半导体603.66元人民币987元人民币+63.5%688256已发行股本4.17亿股2,520亿元人民币818.87/168.64元人民币每股净资产13.96元人民币陈天石28.63%北京艾溪7.34% 第一上海证券有限公司www.mystockhk.com表:盈利摘要资料来源:公司资料,第一上海预测截止12月31日营业额(百万人民币)709变动(%)净利润(百万人民币)每股盈余(人民币)变动(%)市盈率(倍)NA市销率(倍) 股价表现资料来源:彭博黄晨+852-2532 1954主要资料行业股价目标价股票代码总市值52周高/低主要股东 -2-本报告不可对加拿大、日本、美国地区及美国国籍人士发放国产算力芯片中军,专注算力芯片技术立足,深耕智算领域寒武纪是国内智算芯片领域的龙头企业,能提供完善的云边端系列化智能芯片和基础开发软件套件产品,具有云边端一体、软硬件协同、训练推理融合、具备统一生态的特点。公司与服务器厂商和产业公司合作,为互联网、金融、交通、能源、电力和制造等领域的复杂AI应用场景提供充裕算力。公司的产品包括云端智能芯片、加速卡及训练整机,边缘智能芯片及加速卡,终端智能处理器IP等。公司核心产品为思元系列云端算力芯片,对标英伟达主流产品,为客户提供国产化芯片新选择。董事长兼总经理陈天石从研究生开始便投入芯片研发工作,是全世界最早探索专用AI芯片的少数科研人员之一。自成立以来,公司一直深耕于专用AI芯片领域,在发展中进行了大量处理器指令集与微架构的创新,并对开发者套件和开发者生态进行了不断迭代完善,推动公司成长为国产智算芯片的核心供应商。图表1:公司发展历程2014董事长陈天石与其他研发人员合作论文获得国际顶级学术会议最佳论文奖,提出了一种专用AI芯片架构2015全球第一颗专用AI芯片流片成功,并被取名为“寒武纪”2016寒武纪公司成立2017终端智算芯片发布,其中1A型号被用于某国产手机品牌作为其NPU处理器2018云端智算芯片思元100发布,是公司首颗高峰值算力计算芯片2019第二代云端智算芯片思元270发布,同时推出边缘智能芯片思元220,完成了产品云边端的布局2020公司在上海科创板上市,代码6882562021第三代云端智算芯片思元370发布,同时推出了基于思元370的加速卡产品。首次发布多芯互联技术MLU-Link。2022基于思元370推出了新款加速卡,以及训练整机产品玄思1000智能加速器2023第四代云端智算芯片思元590发布,算力参数对标英伟达A1002024思元590通过互联网客户测试,开始正式出货资料来源:公司资料,第一上海核心团队科班出身,年富力强公司创始团队来自中科院计算所,核心研发人员多来自于著名高校或者科研院所。董事长兼总经理陈天石毕业于中科院计算所,是全球最早提出专用AI芯片概念的科研人员之一,其论文相继获得国际顶级学术会议The ACM International Conference onArchitectural Support forProgramming Languages and Operating Systems(ASPLOS)以及IEEE/ACM International Symposium on Microarchitecture最佳论文奖,被《科学》杂志评价为深度学习处理器的“先驱”和“引领者”,相关研究成果被Nvidia以及GoogleTPU研发团队多次引用。副总经理、核心技术人员刘少礼、陈帅、刘毅、张尧等均科班出身,拥有扎实的专业知识积累和丰富的产业从业经验。公司在2020年,2021年,2023年进行过三次限制性股票激励计划,绑定核心管理层和研发人员,提升了团队的稳定性和凝聚力,保证了公司的持续创新和技术领先,让公司在高科技领域能站稳脚跟,不断发展壮大。 国产算力龙头,产品对标英伟达主流产品核心团队专业知识扎实,产业经验丰富。多次股权激励计划提升团队稳定性和凝聚力 本报告不可对加拿大、日本、美国地区及美国国籍人士发放股权结构截至2025年一季报,公司总股本为4.17亿股,为全流通。公司董事长兼总经理陈天石先生直接持有公司28.63%,通过北京艾溪间接持有公司7.34%,合计持有35.97%股权,是公司的实际控制人。第二大股东中科算源为中科院计算所旗下企业,持有公司15.73%股权,其为公司发展提供了良好的股东背景,以及人才和产业资源,通过产学研协同使公司在AI芯片发展中充分受益。其余前十股东多为指数基金。图表3:公司股权结构资料来源:公司资料,第一上海整理 -3- 第二大股东中科算源为公司提供良好的股东背景,以及人才和产业资源 -4-本报告不可对加拿大、日本、美国地区及美国国籍人士发放云边端一体+软硬件协同构筑完整生态,云端优先发力,冲破算力垄断590取得商业化突破,取得公司围绕云、边、端三种场景,打造芯片产品矩阵。2016年,公司首款商用端侧AI芯片——寒武纪1A发布,被集成在全球首款人工智能手机芯片华为麒麟970上,使华为旗舰手机Mate 10具备强大的本地智能处理能力。此后,基于寒武纪1A,公司进一步推出了多款端侧AI产品,包括1M,1H等型号,用于图像识别,安防监控、智能驾驶、无人机、语音识别、自然语言处理等多个应用领域。2017年,公司发布了面向云端的高性能AI处理器产品线,以机器学习处理器(MLU)命名,确立了高算力芯片作为公司产品矩阵拼图的重要一环。2018年,中国首颗高峰值算力云端AI处理器芯片思元100诞生。2019年,第二代云端高算力产品——MLU200系列芯片发布,包括思元290、思元270、思元220等型号,其中思元290主要面向云端高算力需求训练场景,思元270主要面向云端推理场景,思元220主要面向边缘计算场景。公司在产品端完善了公司云、边、端的布局。2021年,公司发布第三代云端高算力芯片——MLU300系列芯片,主要产品为思元370芯片及相对应的系列加速卡和整机。公司同时推出了自有卡间互联方案MLU-Link,对标英伟达NVLink,实现高效的芯片间互联,充分发挥芯片的训练和推理效率。2023年,公司发布最新一代云端高算力芯片产品——思元590芯片。该芯片方便兼容主流AI大模型,综合性能对标英伟达A100,实力处于国内领先地位。思元590的发布奠定了公司在国产高算力芯片领域的龙头地位。全球进入智算时代,算力芯片需求出现井喷。公司将业务重心聚焦到云端算力芯片上,以更好满足下游客户对高性能国产芯片的需求。2023年以来,公司与互联网、电信、金融、交通等领域客户密切配合,不断打磨产品,在近期取得阶段性成绩,有望获取互联网大客户的大批量订单。图表4:公司产品线梳理旗舰产品性能优异,处于国产领先水平2021年,公司发布思元290智能芯片及加速卡MLU290-M5,该产品是公司首颗训练用芯片,采用台积电7nm先进制程工艺,集成寒武纪自研的MLU-Link多芯互联技术,可以高效执行多芯多卡训练和分布式推理任务。2022年,公司发布基于思元370芯片的新款训练加速卡——MLU370-X8,该产品为双思元370芯片配置,集成MLU-Link 云边端一体化,战略聚焦云端算力。最新产品思元互联网客户大批量订单。资料来源:公司官网,第一上海 -5-本报告不可对加拿大、日本、美国地区及美国国籍人士发放多芯互联技术,主要面向训练任务。2023年,公司发布最新一代芯片思元590,性能相比思元370有翻倍以上的提升,综合性能对标英伟达A100,处于国内领先水平。图表5:国内外算力芯片指标对比重视软件平台打造,软硬协同发挥芯片效能硬件端:公司掌握智能处理器指令集、智能处理器微架构的设计和开发,目前已经迭代到第五代处理器微架构MLUarch05,用于最新一代云端训练芯片思元590。公司仍在迭代开发新一代智能处理器微架构和指令集,针对语言大模型、图像视频大模型、推荐系统大模型等训练推理场景进行重点优化,提升产品在性能、功耗上的技术指标,同时也将显著提升编程灵活性和产品易用性,以提升产品竞争力。软件端:公司也在智能芯片编程语言、智能芯片数学库有核心技术积累,推出CambriconNeuWare作为云、边、端统一的智能处理器软件开发平台。Cambricon NeuWare整合了训练和推理的全部底层软件栈,包括硬件驱动、AI加速算子库(CNNL),通信库(CNCL),开发语言BANG等,同时将该软件平台与Tensorflow、Pytorch等AI框架深度融合,实现训推一体,让开发者可以非常方便地完成从云到端,从模型训练到推理部署的全部流程,提升AI算法的开发效率。训练端,该平台支持丰富的图形图像、语音、推荐以及NLP训练任务,通过自有的底层算子库CNNL和通信库CNCL,在实际训练任务中达到业界领先的硬件计算效率和通信效率。推理端,公司打造了MagicMind推理加速引擎,使得用户仅需投入极少的开发成本,就可以将推理业务部署到寒武纪全系列产品上,获得颇具竞争力的产品性能。效仿CUDA生态,软硬一体构筑壁垒CUDA是英伟达在2007年推出的并行计算框架和编程模型,也是英伟达构筑起的坚实软硬件协同壁垒。英伟达通过CUDA,给开发者提供了一整套开发工具,各种库(加速库,数学库,通信库等),以及各种调优方式,让开发者可以快速上手,完成项目开发,同时还方便项目在各种平台之间做迁移。公司的Cambricon NeuWare整合了训练和推理的全部底层软件栈、各种库和编程语言,让开发者可以快速实现项目开发,高效利用芯片算力,有效提升了公司产品的竞争力。 Cambricon NeuWare是公司的生态核心,帮助公司打造软硬件协同生态。 资料来源:公司官网,第一上海MLU-Link提升卡间互联能力,打破集群性能瓶颈 -6-本报告不可对加拿大、日本、美国地区及美国国籍人士发放多芯互联提升芯片组网效率2021年,公司在发布思元290智能芯片时,首次推出自研的MLU-Link多芯互联技术,类似英伟达的NVLink,帮助算力集群执行高效的多芯多卡训练和分布式推理任务。2022年,公司发布MLU370 X8算卡,搭载了MLU-Link,为每颗芯片提供200GB/s的额外跨芯片通讯能力,带宽是PCIe 4.0标准的3倍。公司为多卡系统专门设计了MLU-Link桥接器,可实现4张双芯MLU370 X8算卡的互联。图表7:寒武纪的“NVLink”——MLU-Link资料来源:公司官网,第一上海 -7-本报告不可对加拿大、日本、美国地区及美国国籍人士发放AI应用遍地生根,国产算力迎历史机遇AI技术新浪潮,全球算力需求高增长2022年底,OpenAI发布ChatGPT,世界迎来了生成式人工智能时代。科技巨头纷纷入局,参与大模型竞赛。OpenAI对模型快速迭代,陆续推出GPT4,GPT4o等迭代大模型、Sora视频生成大模型,以及o3、o1等推理大模型。Google也不甘人后,推出了Gemini,在多模态能力上表现出众。亚马逊则通过投资Anthropic入局,Anthropic的Claude系列模型在Agent能力上领先全球。国内企业也纷纷入局,出现百模大战,华为,百度,科大讯飞,百川智能,Minimax,智谱,以及之后的阿里,字节,腾讯等也陆续发布了自己的大模型。生成式人工智能需要巨量算力去做模型训练,全球对算力芯片的需求出现井喷。北美云厂商逐季上调资本开支,2024年总资本开支达到3000多亿美元,其中约一半以上用于AI算力投资。2025年北美云厂商算力开支进一步增长,其中谷歌预计25年资本开支750亿美元;Meta预计640-720亿美元;亚马逊25Q1单季度250亿美元,兵预计之后季度仍将增加,全年预计超过1000亿美元;微软预计FY26资本开支800亿美元。英伟达作为全球AI算力龙头,业绩逐季提升,单季度收入从22Q3的59.3亿美元,提升至FY25Q4(日历年25年1月)的3