东北证券通信组廖文强提到, 交换滥机板块近期受到关注, 特别是国产大模型降本形成不可 逆转趋势, 对硬件端产生影响, 包括速率升级等, 都指向交换机环节。 同时, AI 领域中交 换机的关注度不如光模块等, 但以太网的崛起为国内交换机产业带来机会。2、 国内外交换机投资增长情况国内互联网公司在交换机领域的投资预计有 10%到 13%的增长, 去年投资大约在 1000 万 左 右, 今年预计达到 1100 到 1150 万。增长主要由 AI 带动。 国外互联网公司去年投资约 4800 万, 今年预计升至 5400 万, 增长 25%到 27%, 同样由 AI 驱动。3、 非 AI 领域交换机增长情况非 AI 领域, 即传统数据中心, 国滥内增长预计达到15%, 去年数据中心数量为 2680 个,今 年预计为 2900 个以上。4、 MOE 架构对交换机行业的影响MOE 架构旨在减少 AI 运算时间, 尤其在训练阶段。 这通过专家模型实现, 增加服务器间 数 据交换量。 对于交换机而言, 这导致服务器间通信量增加, 可能需要扩展交换机性能或数量。5、 交换机性能与网络设计网络设计中, 为避免端口长时间高负载, 一般不会让端口流量超过30%。 MOE 架构下,流 量增加可能导致需要重新设计网络拓扑, 增加交换机数量或端口连接数。6、 交换机成本与市场价值量随着从 200G 升级到 400G, 交换机的成本和市场价值量显著提升。 例如, 200G 交换机使 用 12.8T 芯片, 成本约 7 万人民币;而 400G 交换机使用 25.6T 或 51.2T 芯片, 成本分别 约 12 万和 25 万人民币。7、 MOE 架构对成本的影响MOE 架构通过减少运算时间, 降低耗电量, 从而减少成本。 同时, 降低运算时间还能延 长 GPU 使用寿命, 进一步降低成本。8、 国内交换机市场需求量中国互联网大厂去年对交换机市场需求量为 1001 百万美元,今年预计为 1130 百万美元,增 长约 6%。 整体中国市场, 包括 AI 和运营商,去年需求量为 2680 万台, 今年预计为 2925 万 台, 增长约 15%。9、 交换机企业受益分析在 MOE 架构下, 白盒交换机需求增加, 锐捷网络和紫光华山等公司作为白牌交换机供应 商 可能受益。 华勤科技作为能够提供 800G 白牌交换机的公司,也可能在 MOE 架构中扮 演重 要角色。10、 超节点网络与交换机芯片超节点网络的发展与 MOE 架构紧密相关, 国内厂商如盛科已启动相关项目, 致力于通过 超 级节点提升整体性能。 这可能导致交换机芯片使用量的增加。11、 交换机芯片技术路线交换机芯片有两条技术路线: 传统的流水线方案(如博通、 盛科)和可编程方案(如已 停产 的 belfort profilo) 。 可编程方案可能在降低延迟方面有优势, 但在AI 时代, 传统 流水线方 案可能更具市场潜力。 12、 结论与投资者建议MOE 架构显著提升了交换机间数据通量, 互联网厂商开始引入新的组网架构。 投资者可 关 注相关上市公司的产品架构变化, 以及交换芯片市场的发展。 Q: 国内非 AI 交换机市场的现状和增长趋势是怎样的? A: 国内非 AI 交换机市场, 即传滥统数据中心的交换机市场, 目前呈现出增长趋势。 与互联 网公司相比, 传统数据中心的增长率更高, 平均增长率约为 15%, 而互联网公司的增长率为 10%。 去年中国数据中心的数量为 2680 个, 预计今年将增长至 2900多个。 整 体来看, 交换 机行业展现出较强的抗压能力, 市场表现良好。 Q: MOE 架构对交换机行业的影响有哪些? A: MOE 架构主要解决的问题是减少 AI 运算时间, 特别是在训练阶段。 它通过专家模型 来 实现, 这增加了服务器间的数据交换, 即 scale out 通讯。 在以太网交换机领域, MOE 架构 的引入导致服务器间通讯量翻倍, 从原来的 1%不到增长至与机内通讯量相当, 甚至 更高。 这导致机外通讯交换机的负载大幅增加, 可能需要对交换机的性能或数量进行拓 展。 目前, 尽管还没有达到 400G 网卡的上线, 但随着 MOE 架构的进一步应用,预计会 对交换机的设 计和部署产生重大影响。 业界正在参考英伟达的最佳实践, 采用三层架构, 并保持服务器与 交换机之间的连接比例为 1:1, 以应对通讯量的增加。 Q: 目前部署状态下, 以太网与 ID 的性能比较如何? A: 目前部署状态下, 以太网的性 滥能相较于 ID 存在一定差距。 以太网的延迟是 ID 的四倍 以上, 导致其整体性能可能不 如 ID。 Q: 针对 M1 机器互联环境, 网络改造的目标是什么? A: 针对 M1 机器互联环境, 网络改造的目标是降低端口间的流量, 避免流量过大。 这是因 为目前的网络配置是按照英伟达 1:1 的加速比来设计的, 即服务器网卡的性能与上行链路到 另一台交换机的性能相匹配。 如果服务器网卡性能较高, 那么在与另一台交换机互联时, 带 宽也应保持接近, 即使采用负载均衡方法, 链路的使用率也可能相对较高。 Q: 在网络优化方面, 是否需要重新设计网络拓扑? A: 是的, 在网络优化方面, 有必要重新设计网络拓扑。 一种设计方案是增加更多的交换机, 以提高交换机之间的互联带宽。 例如, 将一号交换机到二号交换机的连接从单根连接变为双 根或多根连接, 从而增大交换机之间的带宽。 这样, 端口上的流量就不会像原来单一连接时 那么高, 有助于保证在所谓的白嫖连接时, 不会过度使用带宽。 Q: 如何根据历史经验来避免带宽使用率 过高? 的经 验, 运维人员会将其作为一个参考点。 因此, 为了不超过这个限制, 可能需要增加交换机的 数量, 以及交换机互联的端口数量, 从而带动相关光模块等投资的增长。 Q: 在网络优化工作中, 下一步的计划是什么? A: 在网络优化工作中, 下一步的计划是对 M1 进行优化。 这包括增加网络的带宽和链接交 换机的数量, 以实现优化状 态。Q: 通信速率和交换机数量的关系是什么? A: 通信速率的提升和交换机数量的增加有直 接关系。 为了保证每个端口的负载不超过 30%, 可能需要增加交换机的数量。 这是因为 在专家子模型的数据通信和分发汇总过程中, 通信量 可能会提升百倍以上, 从而需要更高的速率和更多的交换机来处理这些数据。 Q: 端口速率的变化和交换机端口处理能力的 关系如何? A: 端口速率的变化实际上并没有太大变化, 交换机端口的处理能力保持稳 定。 物理端口一 端连接服务器, 另一端连接交换机, 端口速率与服务器网卡速率相匹配。 例如, 如果服务器 网卡是 400G 的, 那么交换机端口也应是 400G 的。 而800G 的端 口主要用于交换机之间的互 联。 Q: 在大规模集群中, MOE 架构对性能和端口流量的影响是什么? A: 在大规模集群中, MOE 架构可能会导致性能降低, 因为专家越多, 计算量越大。 例如, 8K 集群的性能可能会降低 11%, 16K 集群降低 26%, 而 64K 集群降低 50%。 这表明 服务器数 量的增加会降低迭代时间。 然而, 目前还没有明确的数据显示端口上的流量具 体如何变化, 但可以推测 400G 端口的连接需求有显著增长。 Q: 为什么需要限制端口性能不超过设计性能的 30%? A: 限制端口性能不超过设计性能的 30%是一种行业惯例,这 样做可以让整体机器处于一个 相对不高的负荷状态, 这是业界普遍接受的做法。 例如,如果端口是 400G 的, 那么不希望 其性能超过 120 到 150G, 以保持机器在较低负荷状态 下运行。 Q: 增加交换机数量的考虑因素有哪些? A: 增加交换机数量时, 需要考虑的因素包括拓 扑设计、 成本、 以及性能与成本之间的平衡。 例如, 原来两台交换机之间可能只有两条链路, 增加新的交换机后, 可以增加到四条或更多 链路, 从而降低单条链路的带宽利用率, 但同时也会带来成本上的压力。 Q: 在引入 MOE 架构后, 是否需要更高的速率, 如 400G 以上? A: 目前看来, 还没有 达到真正需要超过 400G 端口性能的状态。 尽管可能有短时间超过 400G的情况, 但通过 交换机的流量控制机制, 如 ROCE, 可以保持带宽在较低状态, 避免超过转 发性能。 如 果出现持续超过连接端口性能的情况, 可能会导致丢包。 因此 Q: 丢包对运算和应用可 用性的影响是什么? A: 丢包会导致运算中的数据丢失, 需要重新计算, 这会降低应用 的可用性。 因为丢失了一 些数据包, 重新计算会增加时间, 反而不如提高端口性能来避 免这种情况。 Q: MOE 技术如何提升运算效率, 以及在满带宽情况下交换机性能的表现? A: MOE 技术显著减少了单机或小集群环境下的运算时间, 避免了重传, 从而提高了效 率。 在满带宽或超过百分之百负载的情况下, 即使是高性能的 4D 交换机, 如果没有刚性 提升, 也只能通过提高端口速率来解决, 比如从四车道升级到八车道。 Q: 国内网络架 构是否正从 200G 向 400G 转变? A: 是的, 去年国内主要是 200G 架构, 但现在已经逐渐转向 400G 架构。 例如, 阿里和 腾讯 等公司正在从 200G 向 400G 过渡。 阿里使用的网卡有英伟达的C 系列 200G 网卡,可以直接 升级到更高速率, 并且阿里自行研发了 IPGA 的 2200G 网卡, 并设计了适合自己 需求的流量 控制算法。 目前, 这些解决方案可能已经接近不够用, 预示着向 2400G 的升 级也将很快到 来。 Q: 200G 架构在中国的特殊性以及未来的发展趋势是什么? A: 200G 架构在中国是特殊的, 国外并没有这种配置。 随着阿里等云服务公司的兴起,中国 的网络架构发展路径是 100G、 200G 到 400G。 目前, 随着技术的进步和需求的增 长, 预计 会从 200G 升级到 400G, 以适应更高的数据传输需求。 Q: MOE 架构对交换机单价价值量的影响是什么? 从 200G 升级到 400G, 每台交换机的 价值 量提高了多少? A: MOE 架构对交换机的价值量有显著影响。 目前, 200G 交换机主要使用的是 12.8T 的 交换 机芯片, 如果以博通芯片为例, 一颗芯片大约 1200 美元, 而整台交换机的价格大 约在 7 万 多元人民币。 升级到 400G, 使用的是 25.6T 或 51.2T 的芯片, 25.6T 的芯片价格 大约在 2000 美元左右, 而整台交换机的市场价大约在 12 万元人民币左右。 由于 51.2T 芯 片产能不足, 导致 25.6T芯片价格上涨, 价格大约在 4000 多美元, 相应的交换机市场价 约为 25 万元人民币。 如果使用 51.2G 的芯片, 一颗芯片价格约为 8800 美元, 整台交换 机的价格在 25 万元人 民币左右。 因此, 从 7 万到 12 万, 再到 25 万, 可以看出随着技 术升级, 交换机的成本也在 增加。 Q: 国内大厂的大模型 token 价格降幅是否主要由 MOE 技术带来的成本下降驱动,还是由 于 价格战导致的? A: 国内大厂的大模型 token 价格降幅是由 MOE 技术带来的成本下降和价格战两方面因素 共 同驱动的。 MOE 技术通过减少运算时间, 从而降低了耗电量, 这是成本下降的一个重要因 素。 此外, 像 H100 这样的机器, 尽管使用了液冷技术, 但在长时间满载工作下 ,其使用寿 命大约只有半年左右, 这意味着卡片的生命周期非常短。 如果通过 MOE 技术降低了运算时 间, 也就延长了卡片的使用寿命, 从而降低了供应商的成本。 因此, 供应商在价格战中拥有 一定的底气, 能够降低价格。