
3)观点重申: DeepSeek模型的高效及高性价比,体现了MOE架构的优势,国产模型在能力上保持对于海外头部大模型的快速追赶,坚定看好国产模型及应用的发展前景。 此前4月17日,昆仑万维率先推出了4000亿级参数的MoE混合专家模型架构天工3.0,超越了3140亿参数的Grok-1。我们判断,Moe架构将成为越来越多底座大模型的首选架构,由于其能阶段性的显著降低推理成本,也是推动大模型应用普及的关键变量。坚定看好国产模型及应用的长期价值,昆仑万维在国产模型中领先身位逐渐凸显,维持公司“买入”评级。 风险提示:产业进展不及预期联系人:张良卫/周良玖以上资料来自deepseek官网及论文