您的浏览器禁用了JavaScript(一种计算机语言,用以实现您与网页的交互),请解除该禁用,或者联系我们。 [未知机构]:德邦通信deepseek中国算力模式胜出的加速器20250205 - 发现报告

德邦通信deepseek中国算力模式胜出的加速器20250205

2025-02-05 未知机构 王泰华
报告封面

1、技术层面软硬件解耦与国产芯片适配:英伟达芯片与CUDA生态绑定强,而华为昇腾生态适配不佳,导致910B 芯片服务器上架率不高,如运营商集采的相关服务器上架率不超过30%。 Deep learning采用PTX语言,能在底层与算力芯片适配,现正与华为910C、国产比特等芯片快速适配,这将使华为芯片在运营商和国家基础设施体系中 德邦通信| deepseek,中国算力模式胜出的加速器20250205 1、技术层面软硬件解耦与国产芯片适配:英伟达芯片与CUDA生态绑定强,而华为昇腾生态适配不佳,导致910B 芯片服务器上架率不高,如运营商集采的相关服务器上架率不超过30%。 Deep learning采用PTX语言,能在底层与算力芯片适配,现正与华为910C、国产比特等芯片快速适配,这将使华为芯片在运营商和国家基础设施体系中得到更广泛应用。 算法效率高与端侧部署优势:Deep learning在做模型适配时算法效率高,仅为ChatGPT的1/2或1/5,部署时参数规模小,最多6000亿参数,远低于国外万亿级参数的大模型。 同时,它能实现端侧部署,如DeepSeek的AI模型和生成式服务模型,10亿参数可在网页直接部署,70亿参数可在手机、物联网模组等智能终端部署。 2、生态层面 开放生态与巨头部署:此前中国算力芯片众多但未形成统一生态,各模型各自为战,而英伟达体系生态适配性强。 DeepSeek出现后生态发生巨大变化,它是开源模型,微软、亚马逊、英伟达、华为、阿里、腾讯等全球商业巨头都将其部署到自己平台,英伟达在消费者VIM平台、华为在云计算平台都有部署,其开源特性有力对抗了OpenAI的封闭模型。 成本优势与生态扩张:2024年12月发布的DeepSeek V3模型,自研MOE模型6710亿参数,各参数与GPT – 4等模型不分伯仲,但价格优势明显,每百万tokens是0.5元,输出8元,相比OpenAI的GPT – 4正式版价格低几百倍。 在AI玩具等领域,其参数模型低,如端侧部署只需70亿参数。 1月25日发布的Genius Pro模型的ED版本,十亿参数在文生图执行能力排行榜上表现优异,显著优于其他模型,推动其生态在多方面快速扩张。 3、商业模式层面 中美模式对比与中国模式优势:美国大模型偏重于基础通用大模型,产业基础在一些智慧领域不如中国。 中国则走自下而上路线,如盘古大模型做25个生态小模型与行业适配,但前期推广不理想。 DeepSeek出现后解决了华为的痛点,在各种应用场景尤其端侧更易适配,华为前期努力可整合到其推广路径中,受到运营商、电网、智能驾驶汽车等行业欢迎,中国模式在当下两三年更具商业模式变现优势。 对AIDC厂商的利好:美国大模型在通用大模型基础上向商业大模型渗透,采用大模型套小模型方式;中国盘古模型是汇聚小模型形成大模型。 传统用英伟达路线升级算力服务器资本开支大,如2024年中国移动和中国电信采购910B服务器资金压力大。 Deepseek模式技术突破、生态突破、价格突破后,对AIDC技术改造小,能耗大幅下降,如训练时间可从十天降至五天,能耗降低50%,参数计算从万亿级降至千亿级,前期绑定相关公司将迎来发展机会。