
调研日期: 2023-10-25 中际旭创股份有限公司是一家专业的高速光模块解决方案提供商,拥有高端光通信收发模块的研发、设计、封装、测试和销售能力。该公司于2017年登陆创业板,并近年来保持着良好的营收表现和出色的资本运作能力。中际旭创通过整合产业资源,不断加强光电产业全链条投资布局,致力于推动光电产业的发展。 一、因为一些市场利空传言导致市场对光模块行业未来需求的担心,公司股价出现波动。具体传言包括:AI大客户的芯片在国内禁售,对公司构成了利空;AI大客户明年的800G从1000万砍到了900万只… 针对上述传言,公司回应如下: 1、针对禁售令对公司的影响:公司的订单和业务没有收到来自禁售令的影响。公司主要投资逻辑是800/400G的订单带动公司收入和业绩的增长。刚过去的三季度,公司800/400G同环比出货量、收入、毛利率均有上升,公司有信心在Q4和明年继续保持增长。 2、公司目前的800G订单主要来自海外AI大客户,和其GPU带宽相配套,这些GPU终端用户都在海外市场,包括海外互联网大客户、AI初创公司或行业客户,这些大带宽的GPU并没有在国内销售。其次,一些互联网厂商用400G光模块配合以太网架构和GPU使用。明年,几乎所有 的800G和大部分400G订单都来自海外客户。 3、针对AI大客户开始砍单800G的传言,经核实,该AI大客户没有下调需求也没有砍单,相反还要求公司加快交付800G。 二、投资者与公司高管的问答环节 Q1:从进度看,400G和800G的需求爬坡如何?能看到明年的800G产能多少? A:后面几个季度,预计可以看到800G/400G出货量的环比增长。特别是明年一季度后的产能和交付,爬坡会比较明显。产能情况不方便量化,会提前建设好,并保障每个季度的生产交付。 Q2:IB和以太网的架构以及对应的光模块情况如何? A:AI大客户可以帮助下游用户自行建设IB。也有些互联网客户自行设计以太网架构和自行采购光模块,可以用800G也可以400G。每家情况不同,有些已经开始用800G,有些用400G过渡,因此明年行业也会有大量400G光模块需求用于AI算力架构。 整个全球AI算力的带宽总需求是在持续增长的,无论用谁家的GPU,明年都需要用到800/400G光模块进行带宽支持。 Q3:800G上量后的供应链情况如何?芯片会紧缺吗? A:从供应链看,由于今年800G上量很快且需求不断上修,DSP、EML和Vcsel等先后出现供应紧张。公司动作比较快,下单比较及时,到9月DSP已经大量交付,不再短缺。EML主要用于800/400G单模,也已经下单,锁定了产能。VCSEL主要用于800G/400G多模,供给相对有限,因此会出现阶段性紧缺。行业正在积极导入更多VCSEL供应渠道,明年有望逐步缓解。 Q4:明年下半年800G光模块的供应格局? A:和现在没有变化,保持一致,明年800G光模块需求量很大,主要集中在一些海外AI客户。2025年还会产生新的800G用户,也可能会有新的800G供应商,但主要供应商还是目前这几家,旭创是其中一家。 Q5:市场在关注OpenAI浏览量进入平台期或下行,大家对AI的需求存在担心。目前没有杀手级应用,您如何看待? A:ChatGPT应用已经嵌入到一些企业级商用应用且ToB的用户愿意因为工作效率提升而付费。 客户还推出了Copilot等AI功能。目前AI应用遍地开花,而不是只有ChatGPT。AI应用正在逐步嵌入到很多传统互联网产品中,包括浏览器、地图、文字处理、电商平台等。爆款应用何时来?我认为有些应用会随着用户增长和不断更新而成为出名的爆款应用。 Q6:2025年用800G的趋势会不会有变化? A:随着算力提升,光模块会从低速率向高速率靠,每个客户AI芯片算力和带宽不同,网络架构不同,但殊途同归,大家还是希望向高速率光模块升级,这个是时间问题。 Q7:公司目前的盈利情况较好,股价又比较低,有考虑过回购吗? A:公司去年做了一次回购,效果很理想。现在我们的PE比较低,所以会认真研究是否回购。不管是否回购,公司收入、净利润已经上了较高的台阶了,PE也在变得更低。 Q8:24年单模、多模比例? A:两个大客户,一个全部单模,一个以多模为主,比例不便量化。 Q9:算力投入达到瓶颈期后,是否会不再投入了? A:有些客户已经给出了未来2-3年capex的投入指引,至于AI应用是否成功,我们没法掌握,目前数据不一定代表未来数据。随着应用的优化,我认为AI用户会越来越多,算力需求会不断提升,这是一个潜移默化的过程。 Q10:LPO进展? A:今年OFC上有很多LPO的讨论和关注,因为省去了DSP芯片,能做到低功耗低延时,特定场景下能起到作用,一些客户在测试,但是LPO需要专用的交换机芯片,生态比较封闭。目前还没有看到LPO的订单,可能这个方案会延后,也有可能完全没有需求。 Q11:公司如何看1.6T? A:AI算力在快速发展过程中,数据中心更早迎接1.6T,客户已经产生了1.6T的需求,如果顺利,24年将通过验证并下单,25年上量。AI的确加快了光模块技术迭代,并且缩短了光模块周期。 Q12:为何数据中心或AI客户只引入3家光模块供应商?壁垒在哪里? A:主要是技术原因导致。光模块之间需要信号对传互通,大客户在认证光模块厂商时,大部分工作在认证不同厂商的互联互通,先互通者具有优势,后者要和前者适配。如果不通过适配,就很难进入供应链。光模块不是大路货,是有严格技术标准的。甚至采用不同芯片,互联互通都有可能失败,从技术讲,供应商没法导入太多。导入3家以外更多的新供应商对比认证过程,成本会非常高,性价比并不好。到1.6T阶段有可能仅导入两家,高速率做互联互通更困难。 Q13:国外AI放量集中在训练,随着模型成熟,推理端需求如何? A:之前大家认为,推理端带宽需求不高,有人说200/400G就够。从推理芯片来说确实如此。据我们了解,推理芯片不只是需要这么低的带宽,后期随AI需求也是需要大带宽的。同时,海外很多AI厂商还是集中于训练工作,总算力、总带宽还是在持续增长。 三、会议结束