端侧AI落地绝佳载体,2025年或成AI眼镜爆发元年。在传统云端计算模式面临对大量数据实时处理的性能瓶颈以及终端对数据响应延迟和隐私安全要求的双向刺激下,算力向边缘/端侧发展的趋势愈发明确。近两年海内外企业相继推出多款先锋产品中,AI眼镜凭借其便携性和即时可用性的优势,引发了市场的高度关注,有望成为最佳载体之一。据Wellsenn XR统计,2024年全球AI智能眼镜销量预计为234万台,其中Ray-Ban Meta的累计销量达到225万台。同时预测2025年全球AI智能眼镜销量有望达到550万台,同比增长135%。国内大厂小米、百度以及海外的三星预期都将在2025年发布AI眼镜新产品,众多科技巨头的入局将进一步推动AI眼镜技术创新和市场拓展,2025年有望成为AI眼镜的爆发元年。 SoC为AI眼镜核心物料,多种方案各有千秋。SoC芯片在决定下游应用产品的性能、功能复杂度及价格方面起着关键作用以Ray-Ban Meta为例,SoC占其总硬件成本达33.54%。目前市场存有三种主流SoC方案:1)MCU级SoC+ISP,采用MCU作为主控单元,集成基础通信与传感模块,但受限于算力无法集成ISP。其功能扩展性与系统兼容性不足,难以支撑高负载AI任务,适用于入门款产品 。2) 系统级SoC(ARM Cortex-A架构 ): 集成CPU/GPU/NPU/DSP等多核架构,通过超标量执行等技术实现高效图像处理与智能交互。虽功耗与成本较高,但凭借强大的计算能力成为中高端产品主流方案,如Meta Ray-Ban采用此架构。3)SOC+MCU双核架构:SoC负责AI/影像等高负载任务,MCU专注音频等低功耗场景,通过分时调度优化续航。该方案研发成本高昂,制约规模化应用,目前主要应用于旗舰机型。未来AI眼镜市场竞争将围绕SoC方案展开:系统级SoC有望主导中高端市场,SOC+MCU在续航要求高的场景具潜力。芯片厂商需在性能、功耗与成本间平衡,以适应不同细分市场需求。 技术演进聚焦"感知-计算-交互"架构,计算与图像处理两大模块为核心。SoC芯片通过CPU+NPU协同支撑算力需求,ISP技术直接影响成像质量与交互体验。1)主控CPU:舰级SoC采用高性能CPU+低功耗协处理器架构,前者处理SLAM、手势识别等复杂AI任务,后者负责传感器数据采集与低功耗待机。 通过硬实时操作系统(Linux补丁)保障AR叠加与交互延迟<20ms,集成硬件加速指令集提升矩阵运算效率,满足点云数据处理需求。2)NPU架构演进消费级NPU向能效-精度-灵活性协同优化发展:能效比(TOPS/W)与算力密度(TOPS/mm²)决定实时交互上限。为突破物理极限,Chiplet/3D堆叠实现算力密度提升,模型压缩(如INT8量化)与知识蒸馏技术降低功耗,平衡性能与续航需求。3)AI ISP创新:通过硬件架构创新与算法融合,将传统ISP流水线与AI推理引擎深度集成。实现单帧处理时间<30ms,支持动态范围扩展(DR)、多目标跟踪等高阶功能。AI辅助决策引擎使设备在更低的功耗下实现更高精度的环境理解。 投资建议:AI眼镜产业大趋势已成,SoC作为核心物料,成为影响AI眼镜竞争力的关键因素。建议关注:恒玄科技、全志科技、瑞芯微、星宸科技、富瀚微、晶晨股份。 风险提示:下游需求不及预期、技术创新及下游终端产品迭代进展不及预期、AI眼镜SoC芯片跌价。 投资主题 报告亮点 本报告基于Ray-Ban Meta数据量化SoC芯片成本占比(33.54%),揭示硬件成本控制的关键路径,首创性构建MCU级SoC+ISP、系统级SoC、SOC+MCU三大方案对比矩阵。并进一步探讨了AI眼镜SoC技术路径差异化创新,提出"感知-计算-交互"闭环架构,创新性划分计算模块(异构CPU+NPU)与图像处理模块(ISP+WDR/YEE),构建AI+AR融合的技术演进蓝图。 投资逻辑 目前端侧AI落地趋势确定,智能可穿戴设备已成为SoC芯片下游主要应用端,以Ray-Ban Meta智能眼镜为行业标志性产品,AI眼镜作为AI终端关键载体形态,预计2025年或将迎来爆发元年。SoC芯片是AI智能眼镜的核心成本组成部分,占整机BOM成本超过30%。随着多模态交互需求推动端侧算力升级,AI眼镜市场扩张将有效拉动SoC芯片需求总量及价值量增长,相关技术路径创新企业有望显著受益。 当前AI智能眼镜处理器方案主要有以下三种:(1)MCU级SoC+ISP方案:凭借低功耗与实时控制优势适配小型嵌入式系统,但在功能扩展性与系统兼容性方面存在局限,难以满足复杂AI运算场景需求;(2)系统级SoC方案:基于CPU架构集成GPU、ISP、DSP、NPU及无线通信模块等组件,凭借综合性能优势成为当前主流选择;(3)SoC+MCU方案:兼具低功耗与高性能特性,但受制于研发难度及成本约束,短期尚不具备大规模普及条件。 系统级SoC方案作为主流技术路线,其技术演进围绕"感知-计算-交互"闭环展开,其中计算模块(CPU/NPU)与图像处理模块(ISP)构成关键支撑:1)计算能力方面,主控CPU多采用异构多核架构设计(如高通骁龙AR1 Gen 1的"1+3+2"三丛集架构),实现多任务处理与实时响应;专用AI加速器(NPU)则通过能效比(TOPS/W)与算力密度(TOPS/mm²)的持续优化,支撑环境感知、实时交互等场景需求,当前轻量化AI任务处理能力相对充足,但技术迭代仍在推进。2)图像处理方面,AI眼镜定制化ISP聚焦动态范围扩展、AI协同加速及多传感器融合预处理等方向创新,其性能直接影响图像质量、AI识别精度与功耗表现,现已成为头部厂商构建差异化竞争力的关键战场。 AI眼镜产业化进程加速,积极布局智能眼镜SoC芯片领域的相关公司有望持续受益,建议关注恒玄科技、全志科技、瑞芯微、星宸科技、富瀚微、晶晨股份。 一、SoC:端侧AI落地绝佳载体,AI眼镜竞赛必争之地 (一)算力下沉加速端侧AI落地,眼镜有望成为最佳载体之一 端侧AI风起,智能眼镜引发市场广泛关注。随着全球数据量的迅猛增长及物联网设备的激增,传统云端计算模式难以满足大量数据实时处理的需求。同时,终端对数据响应延迟和隐私安全的要求日益严格,促使算力向边缘/端侧发展。近两年来,海内外企业相继推出多款先锋产品,如AI手机、AI PC及AI眼镜等,其中AI眼镜凭借其便携性和即时可用性的优势,引发了市场的高度关注:1)智能眼镜具备极强的便携性,可实现全天候佩戴且不会给用户带来负担;2)作为可穿戴设备,智能眼镜能够充分感知用户的听觉和视觉,其摄像头与麦克风的位置接近用户的眼睛和嘴巴,拍摄和收音效果与用户视角基本一致,相较于其他智能终端具有更强的交互性。 Ray-Ban Meta智能眼镜拉开行业序幕,2025年或成AI眼镜爆发元年。2023年9月,Meta和雷朋发布了新一代的Ray-Ban Meta智能眼镜,为目前面向C端的智能眼镜中较为热门的产品,相较于传统眼镜其增加了摄像头、麦克风、存储、SoC等电子零组件,可以实现语音交互、拍照等功能,另外其新增了AI功能,接入了Llama3大模型,用户可以通过语音操控其各项功能进一步提升用户体验。根据Wellsenn XR的数据统计,2024年全球AI智能眼镜销量预计为234万台,其中Ray-Ban Meta的累计销量达到225万台。 此外,Wellsenn XR预测2025年全球AI智能眼镜销量有望达到550万台,同比增长135%,国内大厂小米、百度以及海外的三星预期都将在2025年发布AI眼镜新产品,众多科技巨头的入局将进一步推动AI眼镜技术创新和市场拓展,2025年有望成为AI眼镜的爆发元年。 图表1全球AI智能眼镜出货量统计和预测 图表2 AI智能眼镜产品特征 图表3 AI眼镜产品井喷式发布 (二)BOM核心物料,多种方案各有千秋 SoC芯片是AI智能眼镜的核心成本组成部分,占整机BOM成本超过30%。作为各类物联网智能硬件的主控芯片,SoC芯片在决定下游应用产品的性能、功能复杂度及价格方面起着关键作用。以市场上具有代表性的Ray Ban Meta为例,根据Wellsenn数据统计,其BOM成本约为164美元,综合硬件成本约为149美元,其中SoC芯片AR1 Gen 1成本约为55美元,占综合硬件成本33.54%。随着端侧AI技术的不断发展和对眼镜智能化要求的持续提升,SoC芯片的性能和复杂度将进一步提高,预计未来SoC成本占比仍将维持在较高水平,并将持续影响AI眼镜的价格和市场竞争力。 图表4 Ray Ben Meta芯片成本结构(按元件,美元) 目前,AI智能眼镜处理器存在三种主要解决方案: 1、MCU级SoC+ISP方案:低功耗,小型嵌入式系统首选 该方案是在传统MCU的基础上发展而来的,它以MCU内核作为中央处理单元,并根据需求集成音频、无线通信、传感器等相应的硬件模块。MCU级别SoC注重在低功耗条件下的功能应用,通常采用ARM的Cortex-M系列核心或其他低功耗处理器核心。凭借其低功耗和实时控制的优势,该方案非常适合小型嵌入式系统。 然而,由于MCU级别SoC的流水线较短且最高时钟频率较低,导致其计算能力有限,无法在内部集成图像信号处理(ISP)模块,因此多采用外接ISP芯片的方式进行图像信号处理。这种方式虽然解决了部分图像处理问题,但也带来了硬件复杂度增加、成本上升以及占用更多主板空间等新挑战。此外,MCU级别SoC主要适用于实时操作系统(RTOS),在功能扩展和系统兼容性方面存在局限,难以满足运算需求高、功能复杂的AI智能眼镜应用场景。 图表5 MCU级SOC结构图 2、系统级SoC方案:高性能,当前AI智能眼镜主流选择 系统级SoC主要基于CPU架构进行集成和发展,以CPU作为中央处理单元,多采用ARM的Cortex-A系列核心。根据具体功能需求,该芯片集成了GPU、ISP、DSP、NPU、WiFi模块、蓝牙模块、视频编解码系统和音频系统等硬件组件,从而有效简化了硬件设计复杂度。系统级SoC具备多级流水线、超标量执行和乱序执行等高级特性,支持多线程和多任务处理,通常运行在超过1GHz的高时钟频率,并兼容Linux、Android等分时操作系统。这使得系统级SoC能够高效应对AI智能眼镜中的复杂数据处理、图像识别及智能交互等任务。尽管其功耗和成本相对较高,但凭借卓越的性能和丰富的功能,系统级SoC仍然是当前中高端AI智能眼镜的主流选择。 图表6系统级SOC结构图 3、SOC+MCU方案:低功耗&高性能兼备 该方案实现了明确的分工与优势互补。SoC负责支持分时操作系统、人工智能应用及拍摄功能等高计算需求的应用场景,处理复杂的数据和图像,提供强大的智能交互能力; 而MCU则专注于音频处理等低计算需求的应用场景,有效管理简单任务,减轻SoC的负担。通过合理的任务分配,SoC+MCU方案不仅实现了高效的电源管理,显著延长了设备的运行时间,满足了用户对AI智能眼镜续航能力的要求,同时也确保了产品性能的优化。然而,该方案的研发成本高,对芯片设计能力和系统开发能力提出了严格要求,需要专业的技术团队和大量的研发投入。产品成本的大幅上升在一定程度上限制了SoC+MCU方案的大规模普及和应用,如何突破成本和技术能力上的瓶颈已成为行业关注的重点。 图表7 Al智能眼镜处理器方案能力对比 二、智视未来:算力与影像协同,平衡性能功耗的持续创新 AI眼镜在传统配镜基础上新增AI交互、摄像、音频、显示等多项功能,给用户提供更加丰富的智能体验。系统级SoC方案作为当前AI智能眼镜主流选择,价值量和工艺技术难度最高,其芯片设计需在性能、功耗、体积之间实现极致平衡,技术演进围绕“感知-计算-交互”闭环展开。计算(CPU/NPU)、图像处理(ISP)两大核心模块起到了至关重要的作用。 (一)计算模块:异构架构与AI算力定义性能天花板 AI眼镜的计算能力由主控CPU与专用