
Scaling Law 2.0,CSP的私域数据成为关键。过去大模型的发展符合Scaling Law,然而当下公有数据逐步达到瓶颈,私域高精度数据或成为Scaling Law 2.0的核心要素。OpenAI前首席科学家Ilya在公开演讲中提到,由于“我们已经达到了数据的峰值”,当前AI模型的预训练方式可能走向终结。想要在特定领域训练出垂直化的“专家大模型”,数据的精度、准确度等指标更为重要,私域数据、人工标注的数据可能成为下一阶段大模型发展过程中的核心竞争力,掌握私域数据的CSP厂商将在大模型厂商的下一轮竞赛中更具优势。 CSP异军突起,百舸争流的算力竞争时代开启。当下AI大模型日益增长的算力需求对CSP厂商资本开支提出更高要求,考虑到成本优势以及更好的灵活性,CSP自研加速卡将成为未来AI芯片增量最核心的来源,英伟达在加速卡领域的市占率有望逐步被CSP厂商替代。与此同时,CSP自研算力也带来了算力产业链的全新变革,全新的AEC、PCB、散热、电源产业链冉冉升起,CSP合作伙伴将在算力的下一个环节中更为受益。 端侧:豆包出圈,互联网巨头入局AI终端。AI终端的发展经历了由云到端、由ToB到ToC的5个阶段,当前我们处于以字节豆包为代表的互联网巨头引领的第五阶段。早期AI终端更多是品牌厂商引领,而当前互联网巨头亲自下场开发硬件,有望在AI终端产业链中发挥更加重要的作用。我们看好AI+智能终端的趋势,AI将重构电子产业的成长,加速硬件的智能化、伴侣化趋势。无论是手机、PC、AIOT、可穿戴设备、汽车电子,都有重估的潜力。 投资建议:我们认为,伴随着公开数据预训练scaling law的结束,AI产业叙事开始向云厂商合作伙伴转移。从数据到模型,从训练到推理,从云到端,CSP厂商全面布局,形成了完美的商业闭环。当下,无论是海外的谷歌、亚马逊,还是国内的字节、腾讯,云厂商巨头们开始接力,引领AI产业的下一棒。具体到投资方向,PCB、铜缆、温控、电源等产业链,是国内企业深耕多年,具备优势的环节。伴随着本土云厂商的大力扩产,内需为王的时代也将来临。相比过去,25年的AI产业投资将更重视合作建立、订单落地以及业绩兑现,投资回报也会更为稳健。建议关注:1、云端算力:1)ASIC:寒武纪、海光信息、中兴通讯; 2)服务器:浪潮信息、工业富联、华勤技术、联想集团;3)AEC:新易盛、博创科技、瑞可达、兆龙互联、立讯精密;4)铜连接:沃尔核材、精达股份;5)PCB:生益电子、广合科技、深南电路、威尔高;6)散热:申菱环境、英维克、高澜股份;7)电源:麦格米特、欧陆通、泰嘉股份。2、端侧硬件:1)品牌:小米集团、漫步者、亿道信息等;2)代工:国光电器、歌尔股份、天键股份、佳禾智能等;3)数字芯片:乐鑫科技、恒玄科技、星宸科技、富瀚微、中科蓝讯、炬芯科技、全志科技等;4)存储芯片:兆易创新、普冉股份;5)渠道配镜:博士眼镜、明月镜片等。 风险提示:大模型发展不及预期,CSP自研算力不及预期,AI终端销量不及预期。 重点公司盈利预测、估值与评级 1Scaling Law2.0,CSP的私域数据成为关键 1.1关于Scaling Law的争议,从数据规模到数据精度 1.1.1大模型的摩尔定律,算力需求指数级增长 Scaling Law是AI产业发展的通用规律,在Scaling Law下,大模型对算力的需求以每年10倍左右的速度增长,甚至超过了摩尔定律下半导体晶体管密度的增长速度。AI大模型的算力需求在过去几年呈现快速增长的态势,Transformer算力需求在2年内增长750倍,平均每年以接近10倍的速度增长。以Open AI的GPT为例,GPT 1在2018年推出,参数量级为1亿个,Open AI下一代推出的GPT 5参数量级预计达到10万亿。 图1:AI大模型对算力的需求超过摩尔定律 1.1.2数据成为瓶颈,Scaling Law放缓 大模型的ScalingLaw表明,计算量、数据量、参数规模三个因素的增长能够不断提升大模型的性能。在任意其他两个指标不受限制的情况下,大模型的性能和另一个因素都呈现幂律关系,在大模型过去的发展过程中,算力、数据量、参数规模三个指标均没有达到上限,Scaling Law仍然在发挥作用,大模型的性能也在持续改善。 图2:Scaling Law的三要素:算力、数据量、参数规模 然而公开数据量的有限性制约了Scaling Law进一步发挥作用。据IDC,2018年全球数据总量为39.9ZB,预计到2028年,全球数据总量将达到393.8ZB,CAGR增速为25.7%,该增速远远低于Scaling Law下大模型参数和算力需求每年10倍左右的增长速度。Pablo Villalobos等人的研究表明,在2028年左右,大模型能够获得的数据量级将达到上限,受限于数据量,Scaling Law将会放缓。 实际上,由于大模型自2022年底以来的加速发展,数据量可能在2028年以前就会达到天花板,从而限制Scaling Law发挥作用。 图4:大模型Scaling Law将在2028年左右开始显著放缓 图3:2018-2028年全球数据量 1.1.3Scaling Law 2.0,高精度私域数据的强化学习 当下传统的Scaling Law受限于数据量,私域高精度数据或成为Scaling Law 2.0的核心要素。12月15日,在NeurIPS大会上,Open AI前首席科学家Ilya在公开演讲中提到,由于目前“我们已经达到了数据的峰值,未来不会再有更多的数据”,当前AI模型的预训练方式可能走向终结。Ilya的发言认为当前传统的Scaling Law即将失效,新的Scaling Law,即在特定领域的强化学习将发挥更重要的作用。想要在特定领域训练出垂直化的“专家大模型”,数据的数量不再成为衡量数据好坏的唯一标准,数据的精度、准确度等指标更为重要,私域数据、人工标注的数据可能成为下一阶段大模型发展过程中的核心竞争力。 图5:低精度的训练数据增多可能反而对模型性能造成损害 图6:使用更高精度的数据将减小因数据质量不佳而对模型性能造成的损害 1.2CSP的三大利器:私域数据、推理需求、从云到端 1.2.1CSP:掌握私域数据,延续Scaling Law 私域数据成为延续Scaling Law的关键。随着大模型规模及训练集的扩大,可用于训练的互联网公开数据逐渐稀少,基于公开数据的Scaling Law逐步走到尽头;拥有庞大用户群体的互联网巨头,海外以AWS、Meta、谷歌、微软代表,国内以字节、阿里、腾讯、百度等为代表,掌握了用户在使用过程中产生的大量私域数据,如AWS依托其购物平台,积攒了大量用户偏好及使用习惯数据,以及大量的商品文字/图片数据;字节依托头条及抖音平台,积累了海量的资讯数据及视频数据,可以为模型的训练提供优质的语料,有力解决高质量数据匮乏导致的“Scaling Law失效“问题。 图7:豆包大模型使用量快速增长 1.2.2CSP:优质流量接口赋能推理侧,具备推理成本优势 算力需求会加速从训练侧向推理侧倾斜,推理有望接力训练,成为下一阶段算力需求的主要驱动力。互联网巨头旗下亦拥有高活跃应用可以帮助引流,可以依托自身平台流量推广自家大模型,从而获取客户、积累数据;可以将大模型进一步绑定手中热门应用,如可以让自家大模型成为自家短视频平台辅助剪辑、修图的工具。 CSP优质的流量接口可赋能推理侧,实现从训练模型到用户使用大模型进行推理的正向循环,加速模型商业化落地。 随着端侧AI的放量及AI应用的落地,豆包、ChatGPT等AI应用快速发展,AI推理计算需求将快速提升,巴克莱的报告预计AI推理计算需求将占通用人工智能总计算需求的70%以上,推理计算的需求甚至可以超过训练计算需求,达到后者的4.5倍。 OpenAI上线的o1模型也更加侧重于推理测能力。o1新模型除预训练阶段外,还通过大量计算反复强化学习,并且在推理阶段增加思考时间,获得能力的提升,未来模型通过大量强化学习或者延长思考时间以获得更准确的答案或成为可能。英伟达高级科学家Jim Fan认为o1模型的推出意味着模型开始呈现出推理侧的Scaling law,双曲线的共同增长,有望突破大模型能力的提升瓶颈。开发者访问o1的成本更高,百万token输入/输出收费为GPT-4o的3/4倍;复杂推理明显拉动推理侧算力需求。 图8:推理对模型重要性提升 鉴于推理所需的芯片算力显著低于训练,尽管AWS、谷歌为代表的CSP自研ASIC起步较晚,整体性能低于英伟达的GPU,但由于其较高的性价比,以及定制化的开发更加匹配自家模型的推理,云厂商可以通过ASIC降低推理成本,扩大自身优势。博通于业绩会透露,目前正在与三个非常大型的客户开发AI芯片,预计明年公司AI芯片的市场规模为150亿-200亿美元。英伟达GPU目前在推理市场中市占率约80%,但随着大型科技公司定制化ASIC芯片不断涌现,这一比例有望在2028年下降至50%左右。 图9:谷歌TPU 1.2.3CSP:大模型赋能终端的重要参与者 硬件为大模型落地最重要的载体,从云到端为大模型落地的必经之路。复盘AI发展之路,从大模型推出以来,AI PC、AI+MR、AI手机、AI眼镜等终端陆续落地。我们认为AI终端的定价=硬件成本+AI体验,大模型体验的优劣决定了用户的付费意愿,而互联网巨头和第三方科技公司深度参与模型的开发,部分模型能力较强的厂商如字节、百度甚至亲自下场开发硬件,因此我们认为互联网巨头有望在AI终端产业链中发挥更重要的作用。 图10:AI发展历程复盘 1.2.4结论:AI发展的话语权将转换至CSP 我们认为,随着公开数据Scaling Law的逐步终结,掌握私域数据的云厂商更有希望延续大模型训练的ScalingLaw;随着AI应用的逐步落地,AI将由训练端逐步转向推理端,云厂商自研ASIC将比通用GPU更具性价比,且自身具备优质的流量接口可赋能推理侧;硬件是大模型落地最重要的硬件载体,而CSP将作为大模型重要提供方,将全面赋能AIPC、AI手机、AI眼镜、机器人等,CSP+电子品牌(苹果、华为、联想等)的商业模式将更为清晰。 从公开数据到私域数据,从训练到推理,从云到端,三大利器全部掌握在CSP手中,形成训练-推理-商业化落地的完美闭环,我们认为未来CSP的话语权将进一步加重,AI发展的话语权将由以英伟达为代表的算力公司,以及以Open AI为代表的大模型公司,交棒至各大CSP巨头。 2CSP异军突起,百舸争流的算力竞争时代开启 2.1从外采到自研,CSP的算力升级之路 2.1.1资本开支和云收入,相辅相成 云商算力需求仍维持高增,持续增长的资本开支成为北美云商算力的主要支撑。CY3Q24北美四大云商CY3Q24合计资本开支为598.14亿美元,同比增长61.7%,环比增长13.2%;Bloomberg一致预期CY2024北美四大云商资本开支合计为2226亿美元,同比增长51.0%。其中: 1)微软:CY3Q24资本开支149.23亿美元,qoq+7.6%,yoy+50.5%,此前公司指引Q3资本开支环比增加,实际数据基本符合预期,公司指引下一季度资本开支环比增长,但伴随需求增长,资本开支增速将放缓; 2)Meta:CY3Q24资本开支92.10亿美元,qoq+12.7%,yoy+40.8%,公司将全年资本开支预期范围从上一季度的370-400亿美元上修至380-400亿美元,符合391亿美元的Bloomberg一致预期,关于2025年,公司预计2025年资本支出将继续大幅增长; 3)谷歌:CY3Q24资本开支130.61亿美元,qoq-0.9%,yoy+62.10%,此前公司指引Q3资本开支保持或高于120亿美元,实际数据略超预期,据公司指引我们测算公司2024年资本开支预计500亿美元以上,2025年保持适度增长,与此前指引一致