您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[东吴证券]:电子行业深度报告:算力需求看点系列——如何看待AI手机对端侧&云端算力影响? - 发现报告

电子行业深度报告:算力需求看点系列——如何看待AI手机对端侧&云端算力影响?

电子设备2025-02-15陈海进、李雅文东吴证券y***
AI智能总结
查看更多
电子行业深度报告:算力需求看点系列——如何看待AI手机对端侧&云端算力影响?

端侧AI在手机场景中如何落地?苹果引领AI手机市场,端云混合推动AI落地。2024年6月,苹果在WWDC24上正式公布了Apple Intelligence(苹果AI),推出了一系列AI功能,包括:Siri升级、文字处理、图像生成等,上述功能大多直接通过端侧运行,云端用于弥补端侧算力的不足。我们重点梳理了Writing Tools(写作工具)的一些功能,根据测评发现,除了Summary、Key Points、Table、List这四个较为复杂的功能仅支持接入网络的场景下使用,其他Writing Tools功能均可以在无网络的场景下直接使用。 如何理解端侧AI对云端算力的依赖?展望AI手机在算力上的布局,我们认为云端or端侧算力都是未来中短期不可或缺的存在。一方面,在成本、功耗和隐私性优势较大的情况下,算力从云端分流到终端运行或为大势所趋。但当前无论从SoC算力水平还是端侧模型性能来看,仍然还有较大的提升空间。我们认为端侧算力落地的可行路径有:(1)端侧SoC硬件不断升级支撑AI需求。(2)端侧小模型针对主流功能做定向优化减轻算力负载。另一方面,端侧/云端算力不是此消彼长的关系,我们认为端侧AI对算力总盘子的拉动作用会长期存在。当前从0到1阶段,用户更关注端侧AI“有没有”或“效果好不好”,而不是“推理速度快不快”。而展望从1到10的阶段,推理速度一定会是重要的优化环节,我们认为在一些特定场景中云端推理仍然是不错的选择。 如何测算手机AI算力需求?我们将测算拆分为累计AI手机用户数及单日单机算力需求两方面。(1)累计AI手机用户数:IDC预计全球智能手机出货量稳定在12-14亿部/年,根据Canalys预测,2024/2028年全球AI手机渗透率或将达到16%/54%。我们进一步预计到2030年AI手机有望渗透到“千元机”价格带,由此AI手机渗透率或将达到80%。 (2)单日单机算力需求:根据“推理算力需求=2×参数量×token数”的公式,进一步拆分端侧/云端算力来计算。(3)结论:我们测算得到端侧算力需求在2024-2027年间基本维持翻倍以上的增速,2027-2030年间增速依然在高双位数水平。云端算力需求若折算成Blackwell GPU卡的FP8算力,2025/2026年需求量约为12/103万张。 产业链相关公司 -消费电子整机:立讯精密、歌尔股份、领益智造、蓝思科技等。 -端侧SoC:翱捷科技、晶晨股份、瑞芯微、全志科技、恒玄科技等。 -云端算力链:工业富联、沪电股份、胜宏科技、寒武纪、海光信息(与计算机联合覆盖)、龙芯中科、盛科通信(与通信联合覆盖)等。 风险提示:AI手机出货量不及预期风险,端侧软硬件技术发展不及预期风险,AI创新效果不及预期风险。 1.端侧AI在手机场景中如何落地? 苹果引领AI手机市场,端云混合推动AI落地。2024年6月,苹果在WWDC24上正式公布了Apple Intelligence(苹果AI),推出了一系列AI功能:(1)Siri升级:Siri实现了更丰富的语言理解能力和个人情境的感知能力,支持跨APP操作、语义索引、直接键入等功能。(2)文字处理:苹果AI推出了系统级写作工具,支持用户在邮件、备忘录、Pages等第三方应用中,实现校对、重写、调整措辞语气等功能;在文字汇总方面,实现了快速提取录音、邮件的摘要;此外,还能够帮助用户自动管理消息通知。(3)图像生成:苹果AI实现了Image Playground文生图、Genmoji表情、Image wand优化草图、自定义记忆影片和消除图片干扰等功能。值得注意的是,上述功能大多直接通过端侧运行,云端用于弥补端侧算力的不足。苹果AI中使用了两种基础大语言模型:一个约30亿参数,用于设备端运行的AFM-on-device;一个更大型的,基于服务器的AFM-server。在用户发出指令后,苹果AI会分析用户发出的请求,如果用户需要使用的模型已经超出了端侧AI的能力上限,这时云端AI才会介入。此外,苹果在近日新上线的IOS 18.2 Beta1中,已经实现接入OpenAI,将ChatGPT集成到Siri和写作工具中,用户可以切换使用GPT-4o以调用性能更强的云端模型。 图1:苹果AI功能的应用情况 在这里,我们重点介绍Writing Tools(写作工具)的一些功能。包括校对文本、重写不同版本,使得语气措辞恰到好处;并支持对文本进行总结、关键点提取、图表制作、分点总结的功能。根据我们的测评发现,除了Summary、Key Points、Table、List这四个较为复杂的功能仅支持接入网络的场景下使用,其他Writing Tools功能均可以在无网络的场景下直接使用。 图2:Writing Tools功能介绍 2.如何理解端侧AI对云端算力的依赖? 2.1.端侧运行AI优势明显,AI处理持续向端侧转移 端侧运行AI模型,具有成本、能耗、性能、隐私和安全、个性化五大优势。 图3:端侧运行AI的五大优势 考虑到端侧运行AI具有明显优势,越来越多的生成式AI模型从云端分流到终端运行。事实上,在生成式AI出现之前,AI处理便持续向端侧转移,越来越多的AI推理工作在手机、笔记本电脑、XR头显、汽车等边缘终端上运行。例如,手机利用端侧AI支持许多日常功能,比如暗光拍摄、降噪和人脸解锁。随着生成式AI模型的缩小,终端算力的提升,能在终端运行的生成式AI模型更加多样。如今,具备AI功能的手机、PC和其他品类的便携终端数量已达到数十亿台,利用大规模端侧AI处理支持生成式AI有着广阔前景,并且将在未来几年稳步增长。 图4:AI处理的重心向端侧转移 图5:生成式AI模型持续从云端分流到终端运行 2.2.受限于算力制约,端侧AI仍需依赖云端算力 端侧AI处理能力是赋能混合AI并让生成式AI实现全球规模化扩展的关键。随着大量的工作负载正从云端转向边缘终端,对于端侧处理的高性能和出色能效需求愈发增长。如何在云端和端侧之间分配处理任务将取决于端侧能力、隐私和安全需求、性能需求以及商业模式等诸多因素。下文将从端侧AI的算力供给与算力需求两个维度进行梳理,分析当前端侧/云端AI所适合的应用场景。 2.2.1.高通、联发科发布旗舰SoC,端侧AI算力不断增强 高通、联发科作为SoC芯片制造领域的领军企业,陆续发布全新旗舰SoC。2024年10月9日,联发科发布旗舰5G智能体AI SoC芯片——天玑9400。(1)工艺方面:采用台积电第二代 3nm 工艺,较上代同性能功耗降低40%。(2)架构方面:采用第二代全大核CPU架构,包含1个主频3.62GHz的Cortex-X925超大核,以及3个Cortex-X4超大核和4个Cortex-A720大核。值得注意的是,Cortex-X925与新一代旗舰12核GPU Immortalis-G925相得益彰,能够提供卓越的图形性能和效率。(3)NPU方面:搭载了第八代AI处理器NPU 890,首发支持端侧LoRA训练和端侧视频生成,支持端侧运行Meta Llama3.2的1B和3B模型,多模态AI运算处理速度至高达50 tokens/s,至高32K tokens文本长度;相较于上一代产品,天玑9400的LLM提示词处理能力提升了80%。 2024年10月22日,高通正式发布新一代骁龙旗舰SoC——骁龙8 Elite。(1)工艺方面:采用台积电的第二代 3nm 工艺制程。(2)架构方面:搭载第二代定制的高通Oryon CPU,采用2+6的架构方案,2颗4.32GHz的超大核,6颗3.53GHz大核,相比上代骁龙8 Gen3的3.3GHz提升极为明显。(3)NPU方面:骁龙8至尊版搭载了最新的Hexagon NPU,该NPU中搭载了6核向量处理器和8核标量处理器,支持端侧多模态,其出词速度达到了70 tokens/s以上,支持4k上下文窗口。 图6:主流手机SoC性能梳理 2.2.2.云端、端侧算力仍存在差距,复杂场景下云端大模型更为适宜 对于云端大参数模型而言,AI手机端侧算力较难支持。根据OpenAI《Scaling Laws for Neural Language Models》论文中“算力需求=2×参数量×token数”的公式,我们很容易能够给出一个简单的测算来感受端侧和云端算力需求的显著差距。如下图所示,假设需要对一个1000 tokens(不同的大模型均有各自的分词器设计,以OpenAI为例,1000个token通常代表750个英文单词或500个汉字)的文本进行推理:(1)目前主流的7B小模型,算力需求大约为14TFLOPS;(2)GPT4大模型训练参数量1.8万亿,推理时激活参数280B,算力需求大约为560TFLOPS。根据IDC定义,AI手机是NPU算力大于30 TOPS(INT8)、搭载支持生成式AI的SoC并支持端侧大模型的手机。然而,截至2024年2月,符合IDC要求的SoC只有苹果A17 Pro、联发科天玑9300和高通骁龙8Gen3。此外,最新发布的天玑9400和骁龙8至尊版也符合IDC定义的AI手机芯片,但目前端侧AI能实现的算力仍远远不足以支持云端大模型的推理。 图7:端侧、云端算力需求的差距 虽然轻量化的小模型可以满足在端侧运行,但其效果较云端大模型仍有较大差距。 根据SuperCLUE2024年12月模型榜单,云端大模型的得分明显高于端侧小模型,传统大模型使用长文本时,会把整个上下文都放进模型的输入中,而大型的计算开销会因为输入的提升而极速上升,尤其在端侧算力有限的场景下,会对性能产生制约。 图8:大模型性能总排行榜(2024年12月) 图9:10B小模型性能排行榜(2024年12月) 3.如何测算手机AI算力需求? 3.1.累计AI手机用户数如何定义? 全球AI手机年出货量:我们采用全球智能手机出货量×AI手机渗透率的方式进行测算,其中(1)全球智能手机出货量:根据下图数据,IDC预计全球智能手机出货量稳定在12-14亿部/年。(2)AI手机渗透率:根据Canalys对具有生成式AI能力智能手机市场的预测,2024年AI手机出货量预计占全球智能手机出货量的16%,到2028年,这一比例将激增至54%。从2023年到2028年,AI手机市场年均复合增长率(CAGR)将达到63%。往更长期看,我们认为到2030年AI手机有望渗透到“千元机”价格带,根据Bloomberg转引IDC数据可知,截至24Q2,$150以下的智能手机约占全球智能手机市场的25%-30%,我们预计随着AI手机的不断渗透,AI手机价格带有望穿越“千元机”水平进一步下探,由此我们预计到2030年AI手机渗透率或将达到80%。 图10:全球智能手机出货量及预测 累计AI手机用户数:根据TechInsights,全球智能手机的换机率为23.8%,周期为51个月。我们假设由于AI手机对智能手机硬件要求会随着AI功能的升级换代而不断提升,AI手机换机周期会在此基础上有所缩短,假设换机周期为4年。由此,我们测算得到AI手机存量用户数有望在2024-2026年期间翻倍式增长,在2027-2030年间或将逐年放缓。 图11:AI手机渗透率情况 图12:全球智能手机价格带情况 3.2.AI手机文本推理需求与端侧模型、端侧硬件的关系 对于使用场景的划分:根据本文第一章对苹果Apple Intelligence功能的归纳总结(尤其是对Writing Tools的理解),我们发现目前AI手机对于文本的处理功能比较丰富,由此我们进一步将当前的推理任务划分为简单功能和复杂功能。由于当前的复杂功能主要为Summary、Key Points、List、Table等,我们倾向于认为以上复杂功能正常情况下会用于长文本的处理(经测评发现,以上场景需接入网络,由此我们判断需接入云端大模型来实现以上功能);而简单功能更适用于短文本的处理(经测评发现,以上场景不需要接入网络)。我们