AI智能总结
微软推出自研AI芯片。微软在年度IT专业人士和开发者大会Ignite上推出两款自研芯片——云端AI芯片微软Azure Maia 100、服务器CPU微软Azure Cobalt 100。两款芯片2023年年初开始在微软数据中心推出。微软自研AI芯片来应对目前算力芯片短缺的情况,减少供应链的依赖,虽然未来自研芯片将大规模部署于Azure云,但是微软仍然会加强和第三方企业如英伟达等的合作来共建AI生态。 ChatGPT Plus账号由于访问量激增暂停注册。ChatGPT Plus账号由于访问量激增暂停注册。自从devday开发日后,访问量的激增已经远远超出了OpenAI的承受能力,11月8日,ChatGPT和API发生了一场全球大宕机,故障时间断断续续超过了12个小时。为了确保每个用户的良好体验,Plus账号的注册需要暂停一段时间。算力紧缺仍然是制约目前AI发展的一大难题 投资建议:微软发布自研AI芯片MAIA 100,主要用以完善Azure AI生态。该AI芯片方案装配时需使用较大容量的机柜,并配套冷板冷却设计。考虑其制作工艺采用 5nm 节点,有望在互联带宽上对应H100。 此外,ChatGPT Plus账号暂停注册,反映出当前算力需求旺盛,多模态等AI应用爆发下供不应求。建议继续重点关注光互联和液冷板块。光互联层面,海外光模块核心标的:推荐【天孚通信】、【新易盛】;国产光模块核心标的:推荐【光迅科技】,受益标的【华工科技】;3)光芯片国产渗透机会:【仕佳光子】、【光库科技】。液冷层面,受益标的有【英维克】、【高澜股份】、【申菱环境】、【依米康】、【佳力图】、【润泽科技】等。 催化剂:AI出现包括应用;光通信技术创新持续演进; 风险提示:AI应用发展不及预期,光通信技术创新不及预期 1.微软自研Maia 100芯片,完善AzureAI生态 事件点评:11月16日,微软在年度Ignite大会上推出两款自研芯片——云端AI芯片Azure Maia 100、服务器CPU Azure Cobalt 100。两款芯片2024年年初开始在微软数据中心推出,最初将为微软的Copilot或Azure OpenAI Service等服务提供动力。 Maia100:首款定制AI和计算芯片 微软为减少供应链依赖开启自研芯片。在Microsoft Ignite活动上,微软透露计划将主导权交到自己手中。微软认为引入自研的AI组件是在为客户和合作伙伴提供一流基础设施方面的“最后一块拼图”,也是减少对行业供应商依赖的一步,目前整个市场的芯片产能局限于NVIDIA和TSMC,它们正面临巨大的订单积压。 微软Azure Maia 100是一款基于TSMC的5纳米节点构建的ASIC,采用x86主机。该芯片将安装在定制的液冷机架中,最多可搭载4个芯片。 该芯片将支持标准的INT8和INT4数据格式,并利用嵌入式以太网接口。目前微软并未透露有关其任何AI芯片的规格或统计数据,但微软表示Maia AI加速器已经被OpenAI采用。由于这款加速器专门针对Azure硬件堆栈,并且在芯片设计和AI基础设施方面进行了世代改进,微软相信其产品能够实现巨大受益。 图1:微软Maia 100芯片 图2:使用了Maia100的一个机柜外形 Cobalt100 CPU:为微软云定制开发的第一款CPU Azure Cobalt CPU是专为在Microsoft Cloud上运行通用计算工作负载而设计。Cobalt 100 CPU基于Arm架构,基于ARM Neoverse CSS,根据Microsoft的需求进行了定制。微软表示这款64位128核芯片在性能上相比当前Azure Arm服务器的上一代产品提高了高达40%。 这些芯片代表了微软交付完整基础设施系统的最后一块拼图——这些系统包括从芯片、软件和服务器到机架和冷却系统的一切,都经过了从头到尾的设计,并可以根据内部和客户工作负载进行优化。这些芯片将于2024年初开始在微软的数据中心推出,最初用于为公司的服务提供动力,例如Microsoft Copilot或Azure OpenAI Service。它们将加入一个不断扩大的产品范围,帮助满足对高效、可扩展和可持续计算能力的爆炸性需求,以及渴望利用最新云和AI突破的客户需求。 图3:微软Maia 100芯片 冷却系统:采用液冷方案 微软采用液冷来应对冷却需求。大型AI任务需要大量的计算,因此会消耗更多的电力。传统的空气冷却方法无法满足这些需求,因此液冷已经成为应对这些热挑战的首选方案。然而,微软目前的数据中心并未设计用于大型液冷设备。因此,微软开发了一种称为“sidekick”的解决方案,它被放置在Maia 100机架的旁边。Sidekick的工作原理类似汽车的散热器。冷液从侧板流向附着在Maia 100芯片表面的冷板。每个板上都有通道,液体通过这些通道循环,以吸收和传递热量。这些热量然后流向“副翼”,副翼从液体中去除热量,并将其送回机架以吸收更多的热量,依此类推。 图4:微软Maia 100芯片 与第三方合作共同构建Azure AI生态 虽然微软自研的芯片将大规模用户自家的Azure云,但微软仍将提供带有第三方芯片的Azure云服务,因为它已经宣布推出新的NVIDIA Hopper H100和H200实例,并将利用AMD即将推出的Instinct MI300X和第四代EPYC平台来为虚拟机提供动力。 图5:微软CEO与英伟达黄仁勋分享微软和英伟达的全面合作 2.AI风向标:产业最新动态整理 【全球:微软用GPT-4V解读视频,看懂电影还能讲给盲人听,1小时不是问题】近段时间,大型预训练视频模型和视频-语言模型带来了巨大进步,它们在视频内容上的推理能力已经显现。但是,这些模型通常是用短视频片段训练的或预定义了动作类别。由此造成的后果是,这些模型可能难以详细理解真实世界视频的复杂微妙。微软Azure AI为这些问题给出了自己的解答:MM-Vid。该团队表示这种技术可以直接用于理解真实世界视频。简单来说,他们的方法涉及将长视频分解成连贯叙述,然后再利用这些生成的故事来分析视频。MM-Vid是近来处于AI社区关注中心的大型多模态模型(LMM)的新成员;而LMM中最具代表性的GPT-4V已经展现出了突破性的能力——可以同时处理输入的图像和文本,执行多模态理解。为了实现视频理解,MM-Vid将GPT-4V与一些专用工具集成到了一起,实验结果也证明了这种方法的有效性。(来源:机器之心) 点评:虽然该技术仍处于实验阶段,但是MM-Vid生成的音频描述是一种成本高效且可扩展的解决方案。因此,对于无法被专业人士描述成音频的大量视频来说,就可以使用MM-Vid这样的工具来处理它们,从而造福视觉障碍社区。愈来愈多这样的技术来构建更加成熟的AI生态,从而促进生产力,为时代的推进做出贡献。 【全球:ChatGPT Plus账号暂停注册】Sam Altman近日在社交平台上宣布ChatGPT Plus账号注册即将暂停。他表示,自从devday开发日后,访问量的激增已经远远超出了OpenAI的承受能力。为了确保每个用户的良好体验,Plus账号的注册需要暂停一段时间。当然,在应用程序内还是可以注册的,可以重新订阅时,就会收到通知。Sam Altman的这一决定并不让人惊讶,毕竟ChatGPT的新功能一上线,整个网站都被挤爆了。在11月8日,ChatGPT和API发生了一场全球大宕机,故障时间断断续续超过了12个小时。OpenAI原计划周一为plus付费用户启用GPTs,但由于负载过大,该服务推迟数天后才上线。另外,拖到11月12日,新版GPT-4 Turbo才刚刚上线ChatGPT,让用户可以使用128k上下文。(公众号:TechWeb) 点评:ChatGPT Plus账号暂停注册也暴露了ChatGPT现有算力无法满足用户要求的问题,随着模型的性能提升,多模态的的引入,上下文的长度扩展,所需要的算力也水涨船高,因此导致了算力不够的问题。随着未来AI的进一步发展,算力的需求将持续不断的超过大家的预期,因此算力板块仍是未来需要重点关注的方向。 3.投资建议:关注光互联和液冷板块 微软发布自研AI芯片MAIA 100,主要用以完善Azure AI生态。该AI芯片方案装配时需使用较大容量的机柜,并配套冷板冷却设计。考虑其制作工艺采用 5nm 节点,有望在互联带宽上对应H100。此外,ChatGPT Plus账号暂停注册,反映出当前算力需求旺盛,多模态等AI应用爆发下供不应求。建议继续重点关注光互联和液冷板块。光互联层面,海外光模块核心标的:推荐【天孚通信】、【新易盛】;国产光模块核心标的:推荐【光迅科技】,受益标的【华工科技】;3)光芯片国产渗透机会:【仕佳光子】、【光库科技】。液冷层面,受益标的有【英维克】、【高澜股份】、【申菱环境】、【依米康】、【佳力图】、【润泽科技】 表1:相关标的盈利预测(截止至11月16日) 4.风险提示 AI应用发展不及预期。如果AI应用短期内无法实现大批量应用,对于AI的投入方而言可能投入产出比较低,或导致他们减缓对AI硬件端的投入。为此,我们认为如果下游AI应用发展不及预期可能导致AI光模块等板块受到不利影响。 海外开支不及预期。当前AI带来的投入主要来自北美云厂商客户,如果北美云厂商在后续AI硬件设施投入上不足,可能对产业上游(光模块等)需求拉动不及预期。