行业要闻追踪:OpenAI推出最强推理模型o3。“OpenAI十二日”活动最后一天推出最强推理模型o3。o3在美国AIME数学竞赛中达到了96.7分,超过了上一代o1的83.3分。o3在ARC-AGI测试中实现了87.5分, 力较5月份提升32%,豆包12月日均tokens使用量超过4万亿,较5月发布时增长超过33倍。其中,豆包·视觉理解模型不仅能“看”,还能“思考”,用户可以同时输入文本和图像相关的问题,模型经综合理解,可给出准确回答。字节跳动快速迭代升级多模态模型,并持续加大投入AI基础设施布局,其算力基础设施供应商持续受益。 LightCounting积极展望高速互联市场。LightCounting预计未来五年高速线缆AEC/DAC的销售额将增长两倍多,到2029年将达到67亿美元。 英伟达 、 亚马逊等厂商已纷纷采用高速铜连接实现短距离互联 。 LightCounting的预测还包括对3.2T光电共封装端口CPO的估计,预计到2029年将超过1000万个。目前英伟达、博通等头部芯片厂商均推荐CPO封装技术路线。相关光器件及铜连接供应商持续受益AI发展。 行情回顾:本周通信(申万)指数上涨4.13%,沪深300指数上涨0.41%,板块表现强于大市,相对收益3.72%,在申万一级行业中排名第2名。 分领域看,本周光器件光模块、数据中心IDC、5G表现较好。 投资建议:重视AI发展带动的产业机遇,持续配置运营商核心红利资产 (1)中短期视角,OpenAI、字节跳动快速迭代模型,推动AI新应用蓬勃发展。手机巨头苹果亦有意向将字节跳动和腾讯的人工智能技术引入在华销售的iPhone产品中。国内端侧AI应用有望迎来快速发展期,同步拉动云端AI算力设施建设。推荐关注相关算力基础设施:通信设备(中兴通讯、紫光股份、锐捷网络等),光器件光模块(中际旭创、天孚通信等),液冷(英维克等)。 (2)长期视角,中国移动和中国电信规划2024年起3年内将分红比例提升至75%以上,高股息价值凸显,建议持续配置三大运营商。 2024年12月重点推荐组合:中国移动、中际旭创、光迅科技。 风险提示:宏观经济波动风险、数字经济投资建设不及预期、AI发展不及预期、中美贸易摩擦等外部环境变化。 产业要闻追踪 (1)AI模型:OpenAI发布推理模型o3,开启AGI(通用人工智能)时代。 12月21日,“OpenAI十二日”活动最后一天推出重磅收官新品,其迄今最强前沿推理模型的升级版—o3。OpenAI号称o3在一些条件下接近通用人工智能(AGI)。 表1:“OpenAI十二日”活动内容 OpenAI不断迭代模型机应用,有望拉动算力需求,其核心合作伙伴英伟达的供应商持续受益AI发展。 o3性能大跃迁,o3将让我们离AGI更近一步 。 OpenAI发布其迄今最强前沿推理模型的升级版——o3。今年9月发布的OpenAI o1模型拉开了推理模型的闸门,随后许多国内外大模型企业相继推出大量推理模型。出于对英国电信运营商 O2 的尊重,OpenAI把o1的继任者命名为o3。和前代o1模型一样,o3通过思维链进行思考,逐步解释其逻辑推理过程,总结出它认为最准确的答案。 o3有完整版和mini版,新功能是可将模型推理时间设置为低、中、高,模型思考时间越高,效果越好。mini版更精简,针对特定任务进行了微调,将在1月底推出,之后不久推出o3完整版。 o3在美国AIME数学竞赛中达到了96.7分,大幅度超过了o1预览版的56.7和o1的83.3分,仅错了一道题相当于一名顶级数学家的水平。 图1:OpenAI测试数据(Codeforces) 图2:OpenAI测试数据(GPQADiamond) o3将让我们离AGI(通用人工智能)更近一步。ARC-AGI是一个专门衡量AGI的基准测试,由Keras之父FrançoisChollet开发,主要是通过图形逻辑推理来测试模型的推理能力。ARC-AGI的每个任务都需要不同的技能,且刻意避免重复,完全杜绝了模型靠“死记硬背”取巧的可能,真正测试模型实时学习和应用新技能的能力。在演示中,OpenAI演示人员指出任务要求:需要计算每个黄色方块中彩色小方块的数量,并据此生成相应的边框,OpenAI完成任务。 在ARC-AGI的测试中,o3在低算力资源情况下实现了75.7%,而当增加计算资源后实现了87.5%,这也是首次有大模型超过了人类85%的水平,实现重大技术突破。 图3:OpenAI图形推理演示 图4:OpenAI测试数据(ARCAGI) 目前o3还不是很经济。用户能够以每项任务大约5美元(折合人民币约36元)的价格来支付人工解决ARC-AGI任务,只消耗几美分的能源。而在低推理模式下,o3完成每个任务需要花费17-20美元(折合人民币约124~145元)。 o3mini速度更快,成本更低 与o3模型相比,o3Mini模型在性能与成本平衡方面表现出色,能够以较低的成本提供高效的服务。比如在编码领域,o3Mini模型展现出了出色的性能提升。在CodeForces的评估中,随着思考时间的增加,o3Mini模型的表现不断提升,逐渐超越了o1Mini模型。o1在编程竞赛平台Codeforces上的得分为1891。而o3在开足马力,延长思考时间的情况下,得分可达2727;。 图5:OpenAI测试数据(Codeforces) 演示人员要求模型使用Python创建了一个代码生成器和执行器,该脚本可启动服务器并创建本地用户界面。用户可在文本框中输入代码请求,系统会将请求发送至三种高级模式的API,生成并执行相应代码。例如,当要求其生成一个包含OpenAI和随机数的代码时,o3 mini的中等推理模式迅速完成了处理。另外,它还能自己测试自己,比如说在GPQA数据集测试中,模型以低推理模式完成了复杂数据集的评估。它下载原始文件,识别CSS、答案和选项,整理问题并进行解答,最后进行评分,仅用一分钟就完成了自我评估,准确率达到61.62%。 图6:OpenAI代码编译演示 图7:OpenAI代码自测演示 全球大语言模型的竞争加剧。根据MenloVentures报告显示,ChatGPT的市场份额从2023年的50%下降到了2024年的34%。来自Artificial Analysis的调研数据清晰显示,Anthropic和Google等厂商陆续开发出性能接近GPT-4、OpenAI o1等新模型。 图8:大预研模型层出不穷 (2)AI模型:字节旗下火山引擎的豆包大模型家族全新升级 12月18日至19日,“2024火山引擎FORCE原动力大会·冬”召开,豆包大模型全面升级: 发布“豆包·视觉理解模型”,拖垮大模型场景边界。通过豆包·视觉理解模型,用户可以同时输入文本和图像相关的问题。模型能够综合理解并给出准确的回答。这将极大地简化应用的开发流程,解锁更多的大模型价值场景。 豆包通用模型pro再迭代新版本。综合任务处理能力较5月份提升32%,在推理上提升13%,在指令遵循上提升9%,在代码上提升58%,在数学上提升43%,在专业知识领域能力提升54%。 推出全域AI搜索,在AI应用开发平台上让大模型长出手和脚,在企业中便捷地落地。火山方舟、扣子平台以及HiAgent等平台持续升级,加速了大模型落地,为企业和开发者提供高效的工具。 字节跳动快速迭代升级多模态模型,并持续加大投入AI基础设施布局,其算力基础设施供应商持续受益。 豆包大模型快速增长,大模型家族成员持续上新 豆包大模型12月日均tokens使用量超过4万亿,较5月发布时期增长超过33倍。火山引擎总裁及各产品负责人在“FORCE原动力大会”上展示了豆包大模型家族的全面升级。豆包视觉理解模型的发布,以其高效的处理能力和亲民的价格赢得多方关注。该模型在处理千tokens输入时,仅需0.003的费用,即一块钱即可处理284张720P的图片,比行业平均价格便宜了85%,成本远低于行业竞品。 大模型家族成员更丰富,大模型能力再提升。其中豆包通用模型pro完成新版本迭代,综合任务处理能力较5月份提升32%,在推理上提升13%,在指令遵循上提升9%,在代码上提升58%,在数学上提升43%,在专业知识领域能力提升54%。 图9:豆包大模型快速增长 图10:豆包大模型家族成员持续上新 火山引擎推出全域AI搜索,通过场景化搜索推荐一体化服务、企业私域信息整合服务、联网问答服务,将企业的信息、业务和用户需求紧密结合,帮助企业实现“发现更多,推荐更准,搜索无限可能”。 图11:火山引擎多平台大模型更易落地 图12:火山引擎大模型业务探索与实践 豆包·视觉理解模型不仅能“看”,还能“思考” 通过豆包·视觉理解模型,用户可以同时输入文本和图像相关的问题,模型经综合理解,可给出准确的回答: 视觉理解模型不仅可以识别现实中的物品,还能根据光影、轮廓、位置等特征,比一眼识别出小动物的影子。 模型也具备出色的理解和推理能力。模型不仅能识别图文信息,还能进行复杂的逻辑计算。 模型还有着非常细腻的视觉描述和创作能力。可以基于图像信息,更细腻地描述图像呈现的内容,还能进行多种文体的创作。 图13:豆包视觉模型应用示例 通用模型能力全面对齐GPT-4o,视频生成模型即将开放企业服务。 火山引擎还官宣了豆包语言大模型的升级。相比5月版本,豆包最强模型Doubao-pro能力大幅提升。面向MMLU_pro评测集,模型综合能力提升32%,和GPT-4o持平,使用价格仅为GPT-4o的八分之一。Doubao-pro指令遵循能力提升9%,代码能力提升58%,GPQA专业知识方面能力提升54%,数学能力提升43%,推理能力提升13%,全面对齐GPT-4o水平。 9月24日,豆包·视频生成模型发布,此后,该模型通过即梦APP和网页端已对C端用户开放使用,经由创作者之手,诞生出很多精美视频。面向企业客户和开发者,豆包·视频生成模型将于1月依托火山引擎正式对外开放服务。 图14:Doubao-pro综合能力面向MMLU_pro评测 图15:Doubao-pro全面对齐GPT-4o水平 (3)AI硬件:LightCounting积极展望高速互联市场 12月20日,LightCounting发布2024年12月《High-SpeedCables,LPOandCPO Report》,预计未来五年高速线缆的销售额将增长两倍多,到2029年将达到67亿美元。LightCounting的预测还包括对3.2T CPO端口的估计,预计到2029年将超过1000万个。 图16:1.6T高速线缆和50米以上CPO端口预测 有源铜缆AEC与光电共封装CPO发展相辅相成,在AI应用不断发展的未来,光互联和铜连接相关供应商持续受益行业发展。 有源电缆(AEC)市场份额逐步变大 数据中心交换网络的连接方案包括光模块+光纤、有源光缆AOC和直连电缆DAC。 DAC可以进一步分为有源ACC、AEC和无源DAC: 图17:数据中心互联网方案 图18:DAC和AOC介质差别 有源光缆AOC(Active Optical Cable)由两个多模光收发器组成,光纤在内部粘合且不可拆卸。AOC的成本低于两个收发器和单独的光纤,因为制造过程中只需要进行电气测试。AOC提供长达100米的配置,通常用于易于布线的配置。AOC光缆是完整的组件,不能分成插头和光纤。AOC在100G、200G和400GbE速度下非常受欢迎。 图19:AOC产品及单价(2024年5月) 直连铜缆DAC(DirectAttachCable)由连接器插头(QSFP或OSFP)和铜线和屏蔽层组成。DAC线倾向于辐射高速电信号,就像无线电天线一样,因此长度限制为2、3、5米,具体取决于速度。DAC电缆因其成本低、几乎没有功耗和延迟而非常受欢迎。DAC电缆是完整的组件,不能分离成插头和电线。 图2