您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[爱立信]:ict能源演进:电信、数据中心与人工智能 - 发现报告

ict能源演进:电信、数据中心与人工智能

信息技术2025-06-11爱立信冷***
AI智能总结
查看更多
ict能源演进:电信、数据中心与人工智能

内容 16执行摘要3未来会怎样? 11作者17为什么能源使用没有呈指数增长? 8简介4结论14历史和当前电力使用 5参考文献 执行摘要 在过去的十年中,关于信息和通信技术(ict)行业的电力使用已经进行了大量的讨论。有人担心,由于数字化程度的提高和数据处理和存储量的增加,该行业的电力消耗可能会显著增加。回顾过去,大多数ict研究都大大高估了未来的电力使用,因为它们主要依赖于这样一个假设,即更大的数据量会成比例地需要更多的电力来传输和处理数据。 爱立信的研究[1]表明,尽管2007年至2023年间总数据流量呈指数级增长约80倍,但ICT使用阶段电力消耗仅增长了1.4倍。显然,数据传输和电力使用并非成正比。预测未来ICT电力使用需要结合硬件市场统计数据与实际公司报告的电力消耗数据,以更可靠地识别现有和未来的能源趋势。 预计未来几年,网络和数据中心用电量将继续增加。然而,爱立信的分析并未预测数字化的增加、网络扩展以及传统数据中心服务的增长将导致电力消耗呈指数级上升。不确定性在于未来几年人工智能服务和技术将如何发展。从短期来看,人工智能硬件供应存在限制,无法实现能源使用的指数级增长。同时,预计需要更高效的人工智能模型和硬件来满足盈利性、成本和其他前提条件。因此,数字领域技术进步的作用,加上有根据的预测,对于理解未来和制定支持可持续数字增长的政策至关重要。 引言 持续的数字化进程引发了对信息通信技术(ICT)行业电力消耗及其相应温室气体排放的担忧。几十年来,人们已经制定了未来电力需求的预测。然而,它们有一个共同点,那就是未能正确预测信息通信技术(ICT)行业的电力消耗趋势,结果往往被夸大。 本白皮书将展示为什么预测性研究经常失败,过去十年中网络和数据中心的实际电力使用是如何演变的,并描述是什么驱动了这些技术的电力消耗。我们将展示数据量和电力消耗并不直接相关,并探讨该行业未来的潜在情景,重点关注网络和数据中心。此外,本文将尝试探讨人工智能的影响,以及关于其当前和未来能源使用情况可以说明什么。 历史和当前电力使用 ict行业由三个主要部分组成:固定和移动网络、数据中心,以及用户设备,如智能手机和计算机。爱立信的研究表明,该行业自2007年以来每年约增加1%至2%的用电量。与此同时,产品和解决方案的能源性能也在持续改进。虽然总数据流量呈指数级增长,在2007年至2023年间增长了约80倍,但全球ict电力消耗仅增长了1.4倍。在同一时期,用户数量和他们使用的设备数量从大约30亿固定和移动用户增加到超过100亿。因此,每个用户的电力消耗显著下降。相关ict行业的温室气体(ghg)排放趋势与其能源消耗相同。然而,自2020年以来,整个生命周期的总估计ghg排放量开始下降。ict行业能源和碳消耗低,仅消耗全球约4%的电力,并为温室气体排放贡献了1.4%。2] ICT行业电力消耗 2020 - 2023 2023年,整个信息通信技术(ICT)行业在使用阶段的电力消耗约为1000太瓦时。[3] 这比 2020 年略有增长,当时报道的大约是 940TWh。2023 年,网络和数据中心对总电力消耗的贡献约为550TWh,剩余的 450TWh 来自用户设备。这些结果基于爱立信进行的研究,并结合了超过 160家大型 ICT 公司公开发布的电力使用报告,这些公司代表了互联网流量中超过 90% 的份额。为了实现全球代表性,已将披露的数字外推,以创建每个子部门的总量。 收集和分析来自网络运营商和数据中心运营商的公开信息,为探索这些细分领域的发展提供了机会。图3显示了来自63家网络运营商的报告数据,这些运营商覆盖了全球大约75%的移动和固定用户。数据显示,2023年的电力消耗与2020年相比略有增加。图3中的右图展示了从36家大型数据中心运营商收集的电力消耗数据,这些数据中心覆盖了全球超过90%的互联网流量。在这里,电力消耗的增加是显著的,大约增加了50%。 根据Omdia Research,2023年,微软、Meta、谷歌和甲骨文等少数公司获取了大部分新的AI GPU。据估计[4] 那些专门用于人工智能服务的电力消耗,在2023年大约占数据中心总电力消耗的8%,这意味着不到总信息通信技术行业的1%。 历史上,已有若干研究针对ICT行业针对不同最终年份制定了电力使用和碳足迹的预测。2024年,爱立信发布了一项关于实际结果的研究[5],表明2020年的许多预测高估了该行业的电力消耗和温室气体排放增长。这些高估的主要原因往往在于研究中使用的数据质量。许多研究主要依赖于估计的未来数据量,假设更大的数据量会成比例地需要更多电力来传输和处理数据。这种方法论会导致错误结论,正如第4节将要描述的那样。 为什么能源使用不是指数增长的? 简单的答案是,能源使用与数据量并不成正比。在网络中,传输和处理数据仅需要消耗较小部分的电力。大部分电力用于提供覆盖范围,即使在没有数据传输或处理的情况下也是如此,这被称为基本负荷消耗。例如,在移动网络中,基站与设备(如手机)通信以同步位置、信号强度和其他参数,仅交换少量信令数据。这种基本负荷消耗大约占电力使用的95%,即网络监控连接到网络中各个基站的设备。 使用自上而下研究预测未来的电力消耗,通常使用与强度指标相关的基线能源消耗估计,例如每数据单位的能源(kWh/GB)。作为下一步,假设当前的能源强度在未来将保持不变。这用于根据数据量增长预测未来的能源消耗,并针对能源效率的提高进行各种调整。这些过去的绝大多数研究都大大高估了该行业的能源消耗。因此,自上而下的方法并不能很好地代表未来的网络能源使用,不能用来计算真实世界应用的能源消耗。 一种替代方法是利用自下而上的研究,使用关于技术的详细数据,例如服务器功耗的设备规格、数据中心基础设施特征(如电力使用效率-PUE)以及安装基础和设备出货量值。它们往往更接近网络的实际结果 并且数据中心。然而,重要的是将自下而上的方法与现实的检查相结合,利用公司报告的数字来验证该模型是否是对真实系统的良好表示。 能效和蜂窝通信标准 蜂窝网络中的电力消耗很大程度上取决于电信标准的生成。例如,对于4G,系统信令每0.2毫秒(ms)传输一次,以与任何设备通信。另一方面,在5G标准中,强制传输之间的时间间隔可以是20ms甚至更长——比4G长100到800倍。延长通信间隔为无线接入网络利用睡眠模式提供了机会,从而相应地降低了电力消耗。对于未来的6G,有机会进一步增强这些通信间隔,从而实现进一步节能。[6] 瓶颈在于用户需要快速接入通信网络。因此,间隔不能太长,以免影响用户体验,例如在需要时无法使用服务或打电话。 估算电力消耗 建议网络和数据中心的电力消耗估算应基于两步法,结合自下而上的分析与实际报告的能源消耗数据。自下而上的分析,也称为功率模型,已在同行评审的文章中进行了描述。7原则上,该功率模型利用单个硬件组件的信息,考虑其最大功耗和空闲模式功耗值,来计算网络或数据中心在一段时间内的代表性能耗。第二步是一个现实检查,使用当前公司报告的数据来判断通过功率模型获得的数据是否准确。对公司报告数据的评估可以补充以全国范围内的能源生产和消费统计数据。例如,特定历史时期对该部门估计的增长是否体现在公共统计中?现实检查很重要,可以获取与实际情况相对应的数值,以及了解多个参数,例如数据中心利用率,并评估所使用的整体预测模型。 此外,一个需要长期观察的重要能源效率指标是每用户的能源消耗量(kWh/用户),因为用户数量随时间变化并不显著。如前所述,网络中大部分电力用于维持系统运行,而没有数据传输。例如,GSMA在新冠疫情期间报告称,移动网络中的数据传输增加了50%,而电力消耗保持不变。8在数据中心中,评估实际使用的电力容量非常重要,这通常远低于其最大容量。此外,从能源角度来看,电信网络与数据中心的主要区别在于容量上下扩展的可能性及相关电力使用。 在许多未来预测中未得到充分考虑的另一个方面是信息通信技术设备的持续发展和效率提升。网络设备和新一代技术正变得更加节能,并不断提高其容量 并且计算能力,要求较少设备即可满足性能要求。服务器、路由器、交换机和其他基础设施也是如此。这是决定未来基础设施总体电力消耗的重要因素。 总之,即使我们指数级地增加数据传输量,也不会看到电力消耗的同等增长。这在过去是正确的,在将来很可能会继续保持正确。 未来的情况如何? 未来预测很复杂,需要考虑多个因素,例如网络覆盖范围的扩张和数据中心,所使用的设备类型,用户数量,以及硬件和系统代的技术演变。功率模型结合实际数据,如前几节所述,是目前可用的最准确方法。类似地,对于网络而言,研究表明使用强度值(如每传输数据能耗)会导致高估和错误结果。 数字化的增加和网络覆盖范围的需求,从本地到云服务的存储和计算的转移,以及对高质量数据服务整体需求的提高,将增加数字服务的电力消耗。爱立信已经估计了信息通信技术行业的电力使用和潜在的碳足迹,直到2030年,见图6。预计总的电力消耗将继续增加约10%,从2023年到2030年,达到约1,100太瓦时。对于网络和传统数据中心服务,预计到2030年电力消耗将分别增加6%和13%。 此外,还有利用人工智能的服务扩展,而我们已经看到了这一演变的开始。然而,对于网络和传统数据中心服务而言,即使我们预计该领域的电力消耗会增加,但预计也不会呈指数级增长,正如一些研究报道的那样。简单的原因是设备不断变得更高效,新一代网络系统的标准越来越多地融入了节能措施,最后,数据传输永远不会直接与电力使用相关。此外,在建设和部署新一代网络和服务器系统时,较旧、能效较低的科技世代和硬件将被逐步淘汰,并替换为更节能的设备。 那么人工智能的影响呢? 人工智能的普及将如何影响未来几年的数据中心市场?首先,这项技术仍处于初级阶段,发展迅速,使得未来人工智能系统的构建方式难以预测。当前的系统需要消耗大量电力进行训练,并持续使用更强大的硬件。然而,我们也看到了潜在的颠覆,例如DeepSeek,它声称比其他竞争对手运行大型语言模型(LLMs)效率更高。此外,还宣布了大量投资用于人工智能的发展,这些投资也将用于使该技术更加高效。从商业角度来看,降低人工智能的能源成本是未来能够提供有吸引力的产品和服务以及建立稳健商业模式的需要。 爱立信估计,截至2023年底,有高达1200万台人工智能图形处理单元(GPU)在运行,消耗约21太瓦时,相当于所有数据中心用电量的约8%,意味着不到整个ICT行业的1%。展望未来,预计[9]表明到2028年人工智能能耗将占到数据中心总用电量的20%。 2024年,高端GPU销量预计将从2023年的水平翻三番,达到约200万台,与低端GPU的销量持平。10预计未来几年高端GPU销量将继续增长。目前这些高能耗设备有70%是由少数几家大型全球公司采购。与此同时,我们看到了传统服务器系统市场的下滑。 此外,另一个重要方面是人工智能系统使用的频率和持续时间。最耗能的活动是训练人工智能模型;然而,在未来的人工智能推理或使用,预计将占消耗能量的更大一部分。 最终,评估人工智能电力消耗预测的可靠性非常重要。基于自下而上的分析,审查服务器和GPU销售的市场数据,并结合ICT公司报告的能源消耗数据以及全国电力消耗统计数据,我们可以更好地理解未来可能发生的情况。由于数据中心的大部分运营成本与电力有关,需要更换老旧且能效低下的硬件,以降低运营成本并提高竞争力。此外,还需要考虑技术进步。根据国际能源署(IEA)的数据,人工智能相关芯片的效率每三年翻一番,最近的芯片执行与2008年模型相同计算所需的功耗降低了99%。11因此,极有可能在2030年之前,服务器和AI GPU都将随着更高效的处理器进入市场而得到发展。 结论 随着数字化率的提高,信息通信技术(ICT)行业,特别是网络和数据中心,可能会看到电力使用的增加。然而,这种增长不会像一些报告所声称的那样显著。未来的不确定性在于人工智能服务和技术在未来几年的