您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。[未知机构]:商汤2023财报说明会 - 发现报告
当前位置:首页/会议纪要/报告详情/

商汤2023财报说明会

2024-03-29-未知机构睿***
商汤2023财报说明会

商汤2023财报说明会2024年03月29日摘要:一、2023年生成式AI收入已经达到12亿,占比35%,同比200%,预计24年再增长一倍达到24亿(占比有可能超过50%),中长期保持50%+增速。26、27年可能75%以上的收入都是生成式AI。主要商业模式:公有云模式,标准API进行调用,即可以按流量、也可以按token/算力。私有化部署模式,主要银行、券商、保险公司等,配备专属模型,并根据开放的用户账号数或指定年限的授权来计费+升级费、服务费。模型定制服务,根据客户需求提供训练调优或定制开发的服务,计费形式通常为服务费。(不清楚商汤在toC领域是否会有进展)二、算力储备,实现了全国联网的统一调度,在上海,这是深圳、广州、福州、济南、重庆等地都拓展了新的计算节点,总运营的算力达到12000P,上线的GPU数量达到45000张。在24年算力预期再翻倍。运营优化能力在国内首屈一指。完成了deeplink开放计算系统(中国版的英伟达CUDA生态系统,适配全部国产芯片),完成对华为昇腾、寒武纪等的主流的GPU适配,从而支持大模型的训练,微调和推理。三、模型能力日日新大模型4.0,模型的编程推理语言能力都达到了超越GPD4。实现多模态能力,能够理解图片的涵义(详见正文),即将发布大模型5.0终端小模型与荣耀、小米合作,能力媲美大模型。可以部署在手机、笔记本、汽车上。解码器能力突破,能够完成复杂表格的处理,与WPS合作。秒画文生图模型达到4.0,超越行业竞品,国内第一水平。即将发布文生视频对标sora,能够生成分钟级电影级4K分辨率视频(详见正文)四、大幅缩减令人诟病的智慧城市业务(成本高昂、无规模效应、应收账问题)只占10%,重组业务为生成式AI+传统AI+汽车AI,传统AI主要为大客户业务和人脸识别业务(2亿部手机)。五、汽车AI完成了产品化整合,23年推出产品“绝影”包含智能车舱、智能驾驶、自动驾驶接驳及车路协同的一体化平台。绝影收入达到3.8亿同比增长30%+,座舱和智能驾驶产品新增了交付129万台,同比增长超过了160%。新增了超过1600万台的定点,来自于四十多款赛车车型(按照均价260元每台,定点车型全生命周期为40亿收入,一般定点合同为5年左右)。NOA业务取得突破在广汽埃安和哪吒上实 现落地;23年下半年发布了汽车语音大模型功能。六、财务状况公司的三项费用在2023年历史上第一次出现了全部的下降,三项费用与22年比总体其下降幅度是10.6%23年应收回款金额达到了历史新高的39亿,超超过了我们二三年的收入,比22年末营收回款额真正涨了48.5%。23年底的类现金资产总量超过了130亿人民币。我们的银行总授信额度在333年底也是接近130亿人民币,其中还有大概83亿的授信额度没有使用。七、管理层对股价只有发行价20%做了道歉,除了外部环境变化,提到了软银和阿里的减持(从18%一口气减到6%多,阿里8.7%减到2.5%)。当前已经破净,市值已经低于账上的写字楼资产和显卡设备,以及现金权益。如果生成式AI找到好的商业模式,出现高增长,会极大改造当前商汤的困境。全文一、经营分析(徐立)当下我们正在见证着人工智能领域最具深远影响力的技术突破。以ChatGPT为代表的生成式AI快速发展,今年的骚扰的出现也再次验证了scalinglaw的这个有效性,是通过扩大模型的规模、数据量和训练的计算量,我们能够实现并预测到前所未有的AI性能。我们也已经看到了全球科技巨头对支持是智能智算的巨额投入的计划。2023年进行了一个业务的重组,重点发力了生成式AI的业务,也就是面向生成式AI的模型训练微调服务业务生成生态的收入出现了爆发式的增长,达到11.8亿人民币。这是我们十年以来以最快的速度冲到有超过10亿收入的一个业务。我们在2023年实施了大装置,加大模型的产业布局,算力规模上,大装置的运营总算力突破了12000P。相较于二二年,二三年提高了一倍。上线的GPU数量达到了45000。这个大模型的能力上,我们的日日新大模型性能快速提升,实现了万卡万灿的大模型训练能力。在基模型,多模态编程和工具调用百万字无损上下文以及中短小模型上都达到了国内的领先水平。新的模型及服务模式也让我们收获了大量的新客户。我们也有幸成为了中国首批通过生成式人工智能服务管理暂行办法的八个大模型之一,可以广泛服务于公众和企业。23年,集团收入为34亿人民币,同比下降百10.6%。那主要是因为我们做产业转型,并且主动收缩了智慧城市是外观的业务。这个城市在22年的收入占比为30%,二三年降到了10%以内,二三年的回款同比增长48.5%,达到了38亿。这也是我们致力于在应收上面发力,我们提 高了运营效率,也取得了这个显著的成果。二三年我们精选的员工人数相对二年减少11%,包含SBC战略的研发、管理、销售的三类,运营支出同比下降10.6%。同时一笔大亏损收窄至55亿,我们也将持续优化集团的运营效率,采取包括孵化和分拆行业属性较强的业务集中资源在快速增长的生成的业务上。以优化我们的现金流,要减少亏损的相当的人工智能领域。经过十年的深耕,积累了丰富的经验和资源。我们坚定的创新路径和前瞻的布局,给了我们在AI2.0时代非常大的竞争优势。首先是相当于过去十年在感知智能决策智能的积累,多模态的数据储备,强化了我们的基础模型对物理世界的理解以及多模态的感知能力。第二,我们从算力基础设施等大模型的深度协同。一方面我们在万卡万参的算力保障下,支持多定律,不断提升性能。另一方面,对大模型的研发者的深刻理解,帮助我们有更有前瞻性的设计基础设施,实现领先,同行的算力、效率和弹性。第三是我们在端侧的ARGA,我们在2015年起就几乎所有的头部安装手机厂商车企合作,把我们的感知决策智能植入了超过20亿台手机和上百万台车。极致的优化端侧的推理。在生成式AI时代,我们也最快推出了业界性能最好的端侧的推理小模型,打开了新的应用场景。最后是配tob的能力。我们过去在众多的tob场景中深耕细作,对于服务企业客户有完整的体系和利益,我们可以快速响应客户的需求,提供不具具性价比的生成式AI解决方案。在2023年业务的重组中,我们明确了新的三大业务板块生成式AI、传统AI和智能汽车。然后他们也分别对应着提供生成水源的某些训练和推理的服务,以及传统智慧城市、智慧商业、智慧生活中的非正式NCAI的业务和原有的智能汽车来讲的一个业务板块。在新的业务板块分了一下集团与生成式AI业务为重点发展方向,同时保持传统传统AI业务以及智能汽车的优势。生成式AI的去年收入为11.8亿,八年上升200%,占总收入比例提升到35%。传统AI业务去年收入为18.4亿。按年下降41%,占总收入比例从二年的82%将下降到54%。当中智慧城市的收入占比下降明显,反映公司对智慧城市的依赖度大幅降低。最后我们的觉引汽车持续稳步,去年收入为3.8亿人民币,按年上升31%,占总收入的比例的11%。生成AI对商场来说,不仅仅是技术领域的变革性的创新,更是取代了智慧城市,成为我们的核心业务。该业务预计在2024年持续保持高速增长。想到生成式来来的业务的话,都有一个行各业对大模型的训练和推理的广泛需求,这预示着中国硬科技投资的新周期正式开启,相当于通过各个业务层面深入融合,生成CAI的能力,正在 赢得新的客户,并推动效率和生产力的全面提升。接下来我将介绍三大板块的具体业务情况,首先我们生成式的AI业务是成立十年以来从无到有,最快速突破10亿的收入体量的业务。我们向客户提供了业界领先的AI基础设施的模型。客户模型的训练,微调、推理的需求都在爆发式的增长。这个业务当中超过70%的客户在过去的12个月内,市场上的新客户,剩下的30%的存量客户,客单价也落得了约50%的增长数。数十家客户的订单金额超过千万人民币,大模型的调用量也在过去半年呈现120倍的增长。所以这是一个完全新的业务板块。我们的服务商分为公有云业务和私有化部署,根据不同的行业场景,典型的客户来自于各行各业,比如像运营商、银行、券商、金融机构,京东、跃文等头部互联网公司,或者hydro兰州科技等创业公司。清华交大,新加坡的南洋理工等学术机构,什么沙利文发布的二三年中国AI开发平台的市场报告中,相当的增长指数和创新指数这两个维度综合评分全球全国第一。这也是对我们的深层水源领域的创新能力会有一个市场扩张的速度的人。我们的CScallAI大装置是国内去年大模型先进的基础设施,我们早在22年开业的上海临港的AIDC已经是国内知识体系建设的样板了。在二三年,大装置实现了对外一个输出数的大模型生产的支持,我们管理的算力,实现了全国联网的统一调度,在上海,这是深圳、广州、福州、济南、重庆等地都拓展了新的计算节点,总运营的算力达到12000批,上线的GPU数量达到45000张。在24年,预计面面面面面积的拓展,全国的算力节点输出丰富的精致生产力,对于大模型训练服务来说,其实基础设施的GPU互联规模、加速效率和稳定性是商家业界最为关注的指标。我们实现了万卡集群的互联能力,保持99%的加速效率。这个水平是在业界非常领先。从去年稳定性上,我们实现了超过30天稳定训练不间断的能力。出现训练阶段是诊断恢复时长,也优化到了半小时了以内。在大模型的推理服务上,我们也实现了推理的效率优化。一年内的推理服务的性价比就提升了三倍,为我们的客户提供业界性价比最优的。那我先谈一下回复,过去的一年里,客户在商汤的大装置上使用训练和推理的芯片的选择变得更为多样化。我们增加了对华为昇腾、寒武纪的主流的来来进行一个适配,从而支持大模型的训练,微调和推理。这一点的关键是我们参与的联合开发的deeplink开放计算器系统,它可以说是目前国内并行计算平台里的佼佼者,是连接国产硬件和主流深度学习算法框架的这个桥梁和纽带。Deeplink有三百多个标准化的三次接口,基本上扩大能支持的AI大模型计算需求。 全能支持覆盖率超过99.5%。有了这个deeplink各类国产芯片,就可以轻松适配主流的大模型训练框架和算法,比如python,touchdeepc等常见的开源训练环境,还有商汤开源的openMMlab,open第2lab、openGVlab的算法库充分发挥国产芯片的心理。我们再来看我们的模型迭代,在scalelevel的指引下,大模型正处于技术革命,赋能提升黄金时期。自2023年发布以来,我们的日日新大模型的能力每隔三个月就会有显著的提升,体现了我们的深厚的技术积累。从二三年4月份,我们推出了日新1.0版本,就是我们手里面发布的大语言模型,同时还包括了文字图3D内容生成以及各种生成式的模型。到了78月份,我们迭代了2.03.0版本,通过提高训练数据的质量,以及实现了基础语言能力的显著提升,成为国内首个超越。GPT3.5turbo性能的基础性日日新也作为首批通过国家备案的大模型。今年初我们发布了4.0版本,它的代码编写、数据分析等多个场景中达到了与GPT4相匹配的能力。同时我们也开源了对应的GB和20B的两种参数规格的G模型,用于在不同的场景行业。这里我们也很高兴的为大家预告,我们的日新5.0版本,也会很快跟大家见面。我们计划于今年4月份发布,它将全面达到支持支持支付宝水平,同时支持百万字无损上下文,并且它的多模态能力也将全面对标GPT.我们十分期待这里程碑的实现,也将第一时间让我们的众多客户使用到他的能力的。这是我们4.0的能力测试。咱们目前的商用的是4.0版本中,模型的编程推理语言能力都达到了超越GPD4。就是在一个更加大的测试机上的测试,我们也重点加强了我们模型的工具调用因为我们认为今年的工具调研,agent是行业爆发的一个重要的对标志。是我们一直积极建设我们的开源社区,打造开发者生态。我们过往开源的openMMlab已经在github上获得了超过10万颗星。我们开源了7B和20B2种参数规模的模型。它在性能上已经超过了meta的llamatwo,和google的解码。同等的模型,我们可以在这个表上看到性能,huggingface开源模型的性能保障