Sora大模型出色的生成式能力或将引发国内文生视频AI大模型热潮,AI应用侧迎来催化,另外美国算力出口管制之下国产算力也有望超预期发展,推 荐标的神州数码、拓维信息、金山办公、科大讯飞、福昕软件、万兴科技,受益标的高新发展、中科曙光、中国长城、龙芯中科等。 请参阅附注免责声明1 请参阅附注免责声明2 请参阅附注免责声明3 算力是承载人工智能应用发展的基础,是人工智能最核心的要素 根据OpenAI提出的大模型ScalingLaw(缩放定律): 大模型训练所需算力≈6*模型参数量*训练数据量 算力、算法和数据是人工智能产业发展的三个核心要素,在三大要素中,算力才是最核心的约束要素。数据的生产不再是问题,如何处理、分析和使用数据才是问题。算法经历了数十年的发展,在深度学习和加 速计算出现之后,得到了迅速的发展和优化,模型参 图1:算力是AI产业发展的根基 数据的快速增长对算力发展提出更高要求。随着信息化、数字化的持 续推进,全球新产生的数据量正在 数量快速增加算力 算法模型的复杂化和巨量化需要更强算力的支撑。近些年,算法模型的参数量和复杂程度都在呈现指数级增长态势, 尤其是大语言模型等新兴认知智能领域算法 对算力的要求远超图像识别和语音识别 等传统AI领域,GPT1模型参数量1.2亿, GPT3模型参数量达到1750亿 数据来源:国泰君安证券研究 快速增长,根据IDC数据显示, 2021年全球新增数据总量达到 数据 84.5ZB,预计到2026年全球新增数据总量将达到221.2ZB,2021年至2026年间的年复合增速达到21.22% 请参阅附注免责声明4 顶层定调确认人工智能产业“三步走”战略 国务院于2017年发布的《新一代人工智能发展规划》是中国在人工智能领域进行的第一个部署文件,确定了人工智能产业发展的总体思路、战略目标和任务,规划确定了人工智能产业在2020年、2025年及2030年的“三步走”发展目标。 人工智能“1+N”政策体系逐步构建 “1”代表国务院发布的《新一代人工智能发展规划》,“N”是指部委层面陆续出台的关于人工智能产业的发展规划、行动计划、实施方案等落地政策. 图2:中国人工智能产业“三步走”战略(单位:万亿元)图3:人工智能“1+N”政策体系逐步构建 资料来源:国务院《新一代人工智能发展规划》、智研咨询,国泰君安证券研究 请参阅附注免责声明5 复盘人工智能相关政策历程,政策的着力点愈发具体和针对性 图4:人工智能相关政策发展历程 “十四五”国民健康重 点规划 《新一代人工智能伦理规范》 国家新一代人工智能治理专业委员会发布的《新一代人工智能伦理规范》标志着人工智能政策已从推进应用逐渐转入监管领域 “十三五”规划 《中国制造2025》人工智能写入“十三五 ”规划纲要,2016年以 十九大报告 人工智能写进十九大报 告,将推动互联网、大 中央网信办等五部门发布的《国家新一代人工智能标准体系建设指南》明确到2023年,初步建立人工智能标准体系, “十四五”规划 “十四五”国家信息化规划文件中,统 计发现人工智能词频高达47次,其远 国务院出台《中国制造 2025》提出发展智能装备以及生产智能化,人工智能相关规划和政策密集颁布 后,国务院、发改委、工信部、科技部等多部门出台了多个人工智能相关规划及工作方案推动人工智能的发展 数据、人工智能和实体 经济深度融合 重点研制数据、算法、系统、服务等重点急需标准,并率先在制造、交通、金融、安防等重点行业和领域进行推进 高于“十三五”中出现次数,体现了国 家人工智能相关要求的持续加码 201520162017.102022 2023 请参阅附注免责声明6 资料来源:各部委及政府官网,国泰君安证券研究 图5:北京市提出若干发展通用人工智能的措施,具有重要指导意义 生成式人工智能形成新驱力,地方性人工智能政策陆续出台 ChatGPT引爆AIGC潮流,生成式人工智能对于实体经济和相 关产业的影响极为深远 《北京市加快建设具有全球影响力的人工智能创新策源地实施方案(2023-2025年)》提出到2025年人工智能核心产业规模达到3000亿元,持续保持10%以上增长,辐射产业规模超过1万亿元 《北京市促进通用人工智能创新发展的若干措施》围绕算力、数据、模型、场景和监管五大方面,提出了21条具体措施 数据来源:各地AI产业政策规划文件,国泰君安证券研究 请参阅附注免责声明7 各地也都提出各自的人工智能产业相关发展目标 2023年5月31日,深圳市印发《深圳市加快推动人工智能高质量发展高水平应用行动方案(2023-2024年)》统筹设立规模1000亿元的人工智能基金群;2022年出台实施《深圳经济特区人工智能产业促进条例》,构筑起“一条例、一方案、一清单、一基金群”的人工智能高质量发展政策体系。 2023年5月25日,上海市发改委也明确表示支持民营企业广泛参与数据、算力等人工智能基础设施建设,延长新型基础设施项目贴息政策执行期限至2027年底,提供最高1.5个百分点的利息补贴 各一线、二线城市也针对AI产业制定了企业数量目标和产业规模 目标,凸显了各地域对人工智能经济贡献的充足信心 表1:各省市重点城市均制定了人工智能产业相关成果目标 城市地域 人工智能产业规模目标 人工智能企业数量目标 目标年份 上海浦东新区 突破2000亿元 >1000家 2023年 深圳 突破300亿元 20龙头企业 2023年 济南-青岛 300亿元 / 2025年 南京 超过500亿元 100家重点企业 2025年 广州 / >1000家 2023年 天津滨海新区 500亿元 10家领军企业 2023年 杭州 / 3-4个千亿级产业集群 2024年 武汉 500亿元 / 2023年 长沙 1000亿元 >1000家 2023年 成都 突破1500亿元 >1000家 2025年 数据来源:各地AI产业政策规划文件,国泰君安证券研究 请参阅附注免责声明8 请参阅附注免责声明9 英伟达是GPU的发明创造者 1999年,英伟达在纳斯达克挂牌上市并于同年提出了GPU概念,发布了GeForce256——这被业界视为现代计算机图形技术的开端。 GPU最早主要用于PC游戏和Sega、Xbox以及PS3等主机游戏,能够从硬件上支持T&L(TransformandLighting,多边形转换与光源处理),因为T&L是3D图像渲染中的一个重要部分,其作用是计算多边形的3D位置和处理动态光线效果,提供细致的3D物体和高级的光线特效。 3D图像渲染场景是一个并行计算任务。由于图像中各区域之间没有联系或依赖关系,因此,这个任务可以轻易地被拆解成若干个独立的任务,每个任务可以同时并行——这样也可以加快速度。 这种并行计算的能力让GPU意外的成为了AI计算的硬件基础设施:在AI计算中,最常见的任务是深度学习。深度学习模型通常需要进行大量的矩阵计算,这是GPU的强项。GPU可以同时执行大量的矩阵运算,从而加速深度学习模型的训练和推理过程。由于芯片产业的赢家通吃效应,作为GPU全球巨头的英伟达目前占据全球GPU主要市场,并在AI时代迎来了自己的发展新机遇。 资料来源:英伟达 图6:GPU成为AI时代基础设施 请参阅附注免责声明10 当下游戏和数据中心占了英伟达收入的主要部分,数据中心业务刚刚超过传统游戏业务成为公司的顶梁柱 英伟达瞄准四个大的市场:游戏、数据中心、专业可视化和汽车。 游戏业务是英伟达赖以起家的传统业务,高性能游戏显卡是英伟达的拿手好戏, 曾经是收入占比最高的业务,但在2022年已经被数据中心业务超越。 数据中心业务目前是公司最大营收来源,云服务提供商正在使用图形处理单元(GPU)技术来处理数据用户创建的海量数据,包括最终存储在云服务器上的视 图7:数据中心和游戏业务占英伟达收入结构大头 营收(百万美元,2022) 频、照片和消息,因此对于GPU的需求非常强烈,尤其是AI应用带来的大量算力需求进一步推动了数据中心业务的发展。专业可视化产品在设计制造、数字内容创造、企业图像视觉领域发挥着重要作用,能够提升图像显示效果。 智能汽车业务可能会成为英伟达未来的核心业务,其中包含了出售给主机厂和供 9067 1544 903455 15005 应商的GPU和SoC芯片,以及对应的开发平台。 数据中心游戏专业可视化自动驾驶OEM和其他 数据来源:Wind,国泰君安证券研究 请参阅附注免责声明11 针对旺盛的市场需求,英伟达也在不断推出性能更加强劲的产品组合 5月29日,英伟达CEO黄仁勋在COMPUTEX2023展前发布会上,正式发布了全新的GH200GraceHopper超级芯片,以及基于NVIDIANVLinkSwitchSystem驱动的拥有256个GH200超级芯片的NVIDIADGXGH200超级计算机。GH200超级芯片使用NVIDIANVLink-C2C芯片互连,将基于Arm的NVIDIAGraceCPU与NVIDIAH100TensorCoreGPU整合在了一起,以提供CPU+GPU一致性内存模型,从而不再需要传统的CPU至GPUPCIe连接。与最新的PCIeGen5技术相比,这也将GPU和CPU之间的带宽提高了7倍,将互连功耗减少了5倍以上,并为DGXGH200超级计算机提供了一个600GB的Hopper架构GPU构建模块。 数据来源:英伟达 图8:英伟达发布GH200超级芯片 请参阅附注免责声明12 随着人工智能发展对于算力的要求越来越高,英伟达也在不断改进其芯片架构 图9:每隔一到两年,英伟达就会提出新的芯片架构 20122016201720202022 GPUDirect技术 2012年发布的Kepler架构中提出了GPUDirect技术,可以绕过CPU/SystemMemory,完成与本机其他GPU或者其他机器GPU的直接数据交换. Volta架构 2017年提出Volta架构,基本以DeepLearning为核心,引入了TensorCore Hopper架构 英伟达在Hopper架构中引入新一代流式多处理器的FP8TensorCore,用来加速AI训练和推理,与上一代架构相比,新的Transformer引擎与HopperFP8TensorCore相结合,在大型NLP模型上提供高达9倍的AI训练速度和30倍的AI推理速度。 数据来源:国泰君安证券研究 Pascal架构 2016年的Pascal架构中除了考虑深度学习,加入了DPunit之外,还NVLink用以单机内多GPU内的点到点通信,带宽达到了160GB/s Ampere架构 2020年Ampere架构将每个时钟可执行的FP32着色器操作数量增加了一倍,RTCores为光线/三角形相交测试提供了两倍的吞吐量,新TensorCore可以以两倍于TuringTensorCore的速率处理稀疏 神经网络,而TuringGPU不支持稀疏性 请参阅附注免责声明13 图10:相比A100和V100,H100芯片性能大幅提升 随着芯片架构的不断演进,芯片的计算性能也在快速提升 以近年来的三大典型架构Volta、Ampere和Hopper的代表芯片V100,A100和H100为例,在内核数量、计算速度、工艺制程等方面都有大幅提升。 相比V100,A100的单精度浮点计算能力,从15.7TFLOPS提升至 19.5TFLOPS;而双精度浮点运算从7.8TFLOPS提升至9.7TFLOPS。 GPU芯片的价格也随着性能的提升而快速增加。根据快科技2023年5月的报道,V100加速卡目前售价约1万美元,A800售价约1.2万美元,A100售价约1.5万美元,H100售价约3.65万美元。其中A800是英伟达为了满足美国政府对中国市场的合规要求,在A1