AI智能总结
Contents目录 声明2 I.摘要3 2.1 2025年量子计算概览:年度技术焦点4 2.2研究目的与范围4 III. 2025年全球量子计算重大进展6 3.1PsiQuantum的光子量子计算平台3.2微软的拓扑量子比特3.3 D-Wave的超导量子退火处理器3.4用于硅MOS型电子自旋量子比特的CMOS芯片控制3.5无线太赫兹低温互连技术3.6可互换超导量子比特器件的初级网络3.7电子-光子量子片上系统3.8超导量子计算机的扩展挑战79121518202224 IV.结论26 参考链接27 声明 本报告体现的内容和阐明的观点力求独立、客观,本报告中的信息或所表述的观点均不构成投资建议,请谨慎参考。 02本报告旨在梳理和呈现2025度内全球与量子细分技术和产业领域发生的重要事件,涉及数据及信息以公开资料为主,以及对公开数据的整理。并且,结合发布之时的全球经济发展状态,对短期未来可能产生的影响进行预判描述。 03本报告重点关注2025年度量子计算细分行业发生的相关内容,以当地时间报道为准,以事件初次发布之时为准。对同一内容或高度相似内容的再次报道,若跨年度,不视为2025年发生的重要事件。 本报告版权归光子盒所有,其他任何形式的使用或传播,包括但不限于刊物、网站、公众号或个人使用本报告内容的,须注明来源(2025年全球量子计算新进展深度分析[R].光子盒. 2025.07)。本报告最终解释权归光子盒所有。 任何个人和机构,使用本报告内容时,不得对本报告进行任何有悖原意的引用、删减和篡改。未经书面许可,任何机构和个人不得以任何形式翻版、复制、发表、印刷等。如征得同意进行引用、转载、刊发的,需在允许范围内。违规使用本报告者,承担相应的法律责任。 本报告引用数据、事件及观点的目的在于收集和归纳信息,并不代表赞同其全部观点,不对其真实性负责。 I.摘要 本报告旨在深入分析2025年全球量子计算领域取得的重大进展。2025年被联合国定为“国际量子科学与技术年”,这凸显了该领域自20世纪80年代理论起源以来的快速发展。报告详细审视了横跨光子、拓扑、超导和硅基电子自旋量子比特等多样化量子比特模式的关键突破,以及量子互连和控制系统方面的重大进展,对每项成就都进行了技术细节、创新点及其对可扩展性这一核心挑战的影响的深入剖析。此外,报告还探讨了量子计算在扩展过程中面临的巨大工程和环境障碍,将其与欧洲核子研究中心(CERN)或激光干涉引力波天文台(LIGO)等大型科学设施的建设相类比,强调了产业界与学术界持续合作的日益重要性。 本年度的进展表明,尽管研究方法各异,但整个领域正趋向于解决量子系统可扩展性的共同目标。这种趋同的焦点揭示了,当前量子计算发展的主要驱动力在于如何将单个高性能量子比特扩展至数百万个,并使其可靠地协同工作,而非仅仅提升单个量子比特的性能。 II.引言 2.12025年量子计算概览:年度技术焦点 2025年是联合国量子信息科学与技术年,对量子计算领域而言是极具里程碑意义的一年,这一殊荣彰显了自20世纪80年代初量子计算概念首次提出以来,以及20世纪90年代量子处理器超越传统处理器的巨大潜力日益明朗化以来,该领域所取得的飞速发展。近年来,量子硬件的实际形态已逐步显现,学术界和工业界的研究团队在过去一年中展示了多项强大的成果,极大地激发了人们对这项技术的兴奋和期待。自2025年1月以来,这种快速发展势头有增无减。 量子计算从最初的理论构想发展到如今具备强大演示能力的硬件,标志着该领域已从纯粹的概念或小规模实验阶段迈向了更成熟的阶段。当前对量子计算的期待已不再仅仅基于抽象的理论前景,而是植根于日益强大的硬件能力,这也预示着量子技术正处于发展历程中的一个关键时期,即从基础研究向工程实现和实际应用加速转变。 2.2研究目的与范围 本报告旨在对2025年1月以来全球量子计算领域的新进展进行详细分析,主要依据近期发表于《自然-电子学》(Nature Electronics)上的一篇社论及其引用的研究文献。报告范围涵盖对每项重大成就的技术基础、创新之处及其对量子领域(特别是对量子系统持续面临的可扩展性挑战)更广泛影响的深入探讨。 III. 2025年全球量子计算重大进展 PsiQuantum的光子量子计算平台微软的拓扑量子比特D-Wave的超导量子退火处理器用于硅MOS型电子自旋量子比特的CMOS芯片控制无线太赫兹低温互连技术可互换超导量子比特器件的初级网络电子-光子量子片上系统超导量子计算机的扩展挑战0102030405060708 2025年全球量子计算重大进展 2025年,全球量子计算领域涌现出多项突破性进展,涵盖了从新型量子比特制造平台到提升系统可扩展性的互连技术。下表总结了本年度的主要成就: 01 PsiQuantum的光子量子计算平台 2025年2月,PsiQuantum公司在《自然》(Nature)杂志上发表了一项突破性研究,报告了一种可制造的光子量子计算平台。这项核心成果围绕其Omega芯片组展开,该芯片组专为实用级量子计算设计,将单光子量子比特与电信级硅光子技术相结合。PsiQuantum称这种集成对于克服显著的可扩展性挑战和实现高保真量子互连至关重要,而后两者都是构建百万量子比特系统所必需的要素。 该平台的所有光子组件均展现出“超越现有技术水平的性能”,包括高保真量子比特操作以及直接、长距离的芯片间量子比特互连。这种互连被视作实现规模化的关键推动因素,这对于许多其它的平台而言一直是一项难以逾越的挑战。PsiQuantum的方法着重于通过光子学路径实现大规模、容错量子计算机的清晰路线图,同时利用现有半导体制造基础设施来加速规模化进程。 这项平台的核心创新在于其“可制造性”,这标志着量子计算领域正从基础研究向大规模量子系统的实际部署进行战略性转变。PsiQuantum正在积极与政府合作,在布里斯班和芝加哥建立量子计算中心,表明其致力于工业规模实施的决心。近期该公司的企业公告还包括与林德工程公司合作建设用于全球首个实用级量子计算机的低温工厂,以及与美国空军研究实验室(ARFL)签订提供新型量子芯片能力的合同。 为实现可扩展的量子计算所需的互连高密度和低温可靠性,该平台采用了先进的封装解决方案,例如电气集成电路(EIC)和光子集成电路(PIC)的3D集成、光学输入/输出的光纤耦合、倒装芯片互连、2.5D中介层以及晶圆级扇出工艺。通过有效利用现有工业基础设施,这些技术极大地促进了可制造性。 凭借其固有的可制造性以及利用现有半导体制造工厂的能力,光子学为实现容错量子计算提供了一条充满前景且务实的途径。这种方法代表了一种解决复杂物理问题的工程驱动型方案,体现了量子硬件开发领域日益成熟的态势。 02 微软的拓扑量子比特 2025年2月,微软通过新闻稿宣布其“Majorana 1”硬件设备成功创建了拓扑量子比特。Majorana 1是微软的首个量子计算芯片,由砷化铟-铝混合材料制成,能在极低温度下展现超导性。微软声称该设备显示出存在边界马约拉纳零模的信号,如果得到明确证实,这些模式将成为拓扑量子比特乃至大规模拓扑量子计算机的基础。该设备设计可容纳八个量子比特。 图表Majorana 1 微软引入了“拓扑导体”一词来描述Majorana 1中使用的这种新型材料,将其定义为一类能够实现拓扑超导性的材料,这种材料在理论上被普遍认为能有效促进马约拉纳零模的制备与调控。微软在内部白皮书中指出,基于拓扑导体的架构将有助于实现“编织”操作,这是构建容错量子逻辑的关键操作。 基于马约拉纳费米子的量子比特被称为拓扑量子比特,拓扑量子比特的概念最早于1997年提出,为解决传统量子比特(如基于超导电路或离子阱的量子比特)所面临的稳定性和可扩展性挑战提供了极具前景的解决方案。马约拉纳费米子是一种准粒子或特殊的物质状态,它对会导致量子计算机出错的环境噪声具有固有抗性。大致来说,这意味着信息(0和1)在空间中分布(编织),使其对噪声(热、电磁干扰等)的敏感性降低。这种拓扑保护有望显著简化量子纠错过程,与现有最先进的方法相比,所需的开销可能减少约十倍。微软的宏伟目标是使这种架构能够在一个芯片上集成多达一百万个量子比特。 然而,Majorana 1的发布在科学界引发了“一定程度的怀疑”。这种怀疑主要源于微软缺乏明确的公开证据来证实Majorana1设备明确展现了真正的马约拉纳零模。微软在量子硬件方面的研究成果此前也曾引发争议,如2018年发表于《自然》杂志上一 篇 备 受 关 注 的 文 章 被 撤 回,以 及2017年 发 表 于《自 然·通 讯》(NatureCommunications)上一篇与微软量子芯片相关的论文被质疑存在未披露的数据处理。 微 软 声 称Majorana 1是“世 界 上 第 一 个 由 拓 扑 核 心 驱 动 的 量 子 处 理 单 元(QPU)”,但这一说法也存在争议,因为目前公开的硬件演示仅展示了一种读出方法,并未展示任何相干量子处理或逻辑操作。同样,微软新闻稿中“创建马约拉纳粒子”的说法与《自然》论文本身相矛盾,该论文明确指出,测量结果“本身并不能确定通过干涉测量检测到的低能态是否具有拓扑性质”。核心困难在于,在这些设备中,很难可靠地区分拓扑马约拉纳模式和拓扑平凡的安德烈夫模式。 微软关于“创造了一种以前只存在于理论中的新物质状态”的断言也受到质疑,因为此前已有大量基于类似体制的半导体纳米线实验,这些实验理论上也应处于相同的物质状态。根据审稿人的意见,该《自然》论文的真正新颖之处更多在于其方法论证明了射频奇偶校验读出“可以在复杂的环形几何结构中实现”,而非提供了马约拉纳零模更强、更确凿的证据。 拓扑量子计算的高风险性质以及围绕微软声明的诸多质疑,凸显了在量子计算这一高度复杂且受到严格审查的领域中,科学严谨性和透明、可验证证据的重要性。即便是主要行业参与者,在提出突破性主张时也往往面临严格的审查,这表明通往容错量子计算的道路不仅关乎技术突破,更在于通过透明和可重复的结果在更广泛的科学界建立信任与共识。 03 D-Wave的超导量子退火处理器 2025年3月,由D-Wave研究人员领导的团队在《科学》(Science)杂志上报告称,其超导量子退火处理器在性能上超越了现有最先进的经典模拟器。D-Wave的退火量子计算机可以在几分钟内执行磁性材料模拟,而使用超级计算机其精度水平需要近100万年的时间。 2025年6月,D-Wave团队在arXiv发表论文,表示其量子退火平台已展示出“快速高效地训练经典神经网络(NNs)”的能力,训练后的网络随后可部署在传统经典硬件上。神经网络训练过程被概念化为一种动态相变,系统从初始的自旋玻璃态演变为高度有序的训练态,通过有效消除其能量景观中众多不期望的局部最小值来实现。这一过程被生动地比喻为“砍掉不断再生的龙首”。特别是,在D-Wave平台上实现的“龙训练”程序,允许通过一次神经网络参数更新,同时惩罚多个“错误”的能量盆地(即“龙首”)。 与经典反向传播方法相比,这种量子辅助训练方法实现了卓越的性能扩展,表现出显著更高的扩展指数(量子辅助为1.01,而经典反向传播为0.78)。研究人员提出,如果采用一种利用格罗弗算法变体的完全相干量子平台,这种性能优势可能进一步提高至两倍,尽管由于现有相干性限制,这尚未在当前的D-Wave设备上实现。此外,研究表明,即使是规模适中的量子退火器,通过一次只应用于几个层,也能为深度神经网络的训练带来显著益处。D-Wave的量子退火器已显示出能够快速生成与薛定谔方程推导出的解高度匹配的样本。它们在涉及复杂多体量子相互作用的任务中,相对于某些基于张量网络和神经网络的经典模拟技术展现出计算优势,尤其是在经典方法扩展性较差的场景中。 D-Wave在论文中用对数-对数坐标系直观展示了不同训练方法的性能比较。上图绘制了训练误差率作为训练周期数的函数,它清晰地展示了“龙训练”