您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[国盛证券]:Chatgpt需要多少算力 - 发现报告
当前位置:首页/行业研究/报告详情/

Chatgpt需要多少算力

信息技术2023-02-12刘高畅、杨然国盛证券最***
Chatgpt需要多少算力

请仔细阅读本报告末页声明 证券研究报告 | 行业点评 2023年02月12日 计算机 Chatgpt需要多少算力 ChatGPT:大模型下计算量高速扩张,算力需求陡增。1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩充适用场景、提升研发效率。OpenAI GPT3自发布以来,在翻译、问答、内容生成等领域均有不俗表现,也吸引了海内外科技巨头纷纷推出超大模型、并持续加大投入。2)在大模型的框架下,每一代GPT模型的参数量均高速扩张,GPT-3参数量已达到1750亿个。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。 访问算力:初始投入近十亿美元,单日电费数万美元。1)根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT。访问阶段算力每天发生,其成本成为衡量ChatGPT最主要投入的关键指标。2)我们以英伟达A100芯片、DGX A100服务器、现阶段每日2500万访问量等假设为基础,估算得出:在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器;在单日运行电费上,参考美国平均0.08美元/kwh工业电价,每日电费约为5万美元,成本相对高昂。 前期训练:公有云下,单次训练约为百万至千万美元。1)模型的前期训练成本也是讨论的重要议题。基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。2)我们认为,在公有云上,对于全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内。 投资标的: 服务器:浪潮信息、紫光股份、中科曙光等。 芯片:景嘉微、寒武纪、海光信息等。 IDC:宝信软件、万国数据、数据港、世纪华通等。 光模块等。 风险提示:AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险。 增持(维持) 行业走势 作者 分析师 刘高畅 执业证书编号:S0680518090001 邮箱:liugaochang@gszq.com 分析师 杨然 执业证书编号:S0680518050002 邮箱:yangran@gszq.com 相关研究 1、《计算机:微软公布AI融合版Bing,ChatGPT加速落地》2023-02-09 2、《计算机:ChatGPT应用展望》2023-02-05 3、《计算机:行情演绎的两个方向》2023-02-05 -48%-32%-16%0%16%2022-022022-062022-102023-02计算机沪深300 2023年02月12日 P.2 请仔细阅读本报告末页声明 内容目录 ChatGPT:大模型下计算量高速扩张,算力需求陡增 ................................................................................................ 3 访问算力:初始投入近十亿美元,单日电费数万美元 ................................................................................................ 4 前期训练:公有云下,单次训练约为百万至千万美元 ................................................................................................ 5 投资标的 ............................................................................................................................................................... 6 风险提示 ............................................................................................................................................................... 6 图表目录 图表1:Gartner2022年度重要战略技术趋势 ........................................................................................................... 3 图表2:GPT-3历代模型的参数量及数据量 .............................................................................................................. 3 图表3:NVIDIA DGX A100 640GB参数规格-1 ......................................................................................................... 4 图表4:NVIDIA DGX A100 640GB参数规格-2 ......................................................................................................... 4 图表5:美国部分州2021年及2022年平均工业电价对比(Price per Mw/h) ............................................................ 5 图表6:GPT-3训练成本估算 .................................................................................................................................. 5 图表7:预估LLM在GCP TPU v4芯片上的训练成本 ................................................................................................ 6 2023年02月12日 P.3 请仔细阅读本报告末页声明 ChatGPT:大模型下计算量高速扩张,算力需求陡增 ChatGPT以大模型为基础,在翻译、问答、内容生成等领域表现不俗。1)ChatGPT是生成式AI的一种形式,Gartner将其作为《2022年度重要战略技术趋势》的第一位。2)根据腾讯研究院研究,当前的人工智能大多是针对特定的场景应用进行训练,生成的模型难以迁移到其他应用,属于“小模型”的范畴。整个过程不仅需要大量的手工调参,还需要给机器喂养海量的标注数据,这拉低了人工智能的研发效率,且成本较高。而ChatGPT背后的支撑是人工智能大模型。大模型通常是在无标注的大数据集上,采用自监督学习的方法进行训练。之后,在其他场景的应用中,开发者只需要对模型进行微调,或采用少量数据进行二次训练,就可以满足新应用场景的需要。这意味着,对大模型的改进可以让所有的下游小模型受益,大幅提升人工智能的适用场景和研发效率。3)因此大模型成为业界重点投入的方向,OpenAI、谷歌、脸书、微软,国内的百度、阿里、腾讯、华为和智源研究院等纷纷推出超大模型。特别是OpenAI GPT3大模型在翻译、问答、内容生成等领域的不俗表现,让业界看到了达成通用人工智能的希望。当前ChatGPT的版本为GPT3.5,是在GPT3之上的调优,能力进一步增强。 图表1:Gartner2022年度重要战略技术趋势 资料来源:腾讯研究院,Gartner,国盛证券研究所 参数量、数据量高度扩张,算力需求陡增。在大模型的框架下,每一代GPT模型的参数量均高速扩张;同时,预训练的数据量需求亦快速提升。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。 图表2:GPT-3历代模型的参数量及数据量 资料来源:环球网,国盛证券研究所 2023年02月12日 P.4 请仔细阅读本报告末页声明 访问算力:初始投入近十亿美元,单日电费数万美元 Chatgpt月活过亿,访问量爆发式增长。根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT,是2022年12月份的两倍多;累计用户超1亿,创下了互联网最快破亿应用的记录,超过了之前TikTok9个月破亿的速度。 访问阶段的算力每天发生,成为衡量ChatGPT投入的关键指标。 1)计算假设:  英伟达A100:根据OneFlow报道,目前,NVIDIA A100是AWS最具成本效益的GPU选择。  英伟达DGX A100服务器:单机搭载8片A100 GPU,AI算力性能约为5 PetaFLOP/s,单机最大功率约为6.5kw,售价约为19.9万美元/台。 图表3:NVIDIA DGX A100 640GB参数规格-1 图表4:NVIDIA DGX A100 640GB参数规格-2 资料来源:英伟达官网,国盛证券研究所 资料来源:英伟达官网,国盛证券研究所  标准机柜:19英寸、42U。单个DGX A100服务器尺寸约为6U,则标准机柜可放下约7个DGX A100服务器。则,单个标准机柜的成本为140万美元、56个A100GPU、算力性能为35 PetaFLOP/s、最大功率45.5kw。 2)芯片需求量:  每日咨询量:根据Similarweb数据,截至2023年1月底,chat.openai.com网站(即ChatGPT官网)在2023/1/27-2023/2/3这一周吸引的每日访客数量高达2500万。假设以目前的稳定状态,每日每用户提问约10个问题,则每日约有2.5亿次咨询量。  A100运行小时:假设每个问题平均30字,单个字在A100 GPU上约消耗350ms,则一天共需消耗729,167个A100 GPU运行小时。  A100需求量:对应每天需要729,167/24=30,382片英伟达A100 GPU同时计算,才可满足当前ChatGPT的访问量。 3)运行成本:  初始算力投入:以前述英伟达DGX A100为基础,需要30,382/8=3,798台服务器,对应3,798/7=542个机柜。则,为满足ChatGPT当前千万级用户的咨询量,初始算力投入成本约为542*140=7.59亿美元。  每月电费:用电量而言,542*45.5kw*24h=591,864kwh/日。参考Hashrate Index 2023年02月12日 P.5