英伟达在GTC大会上发布了H100 NVLINK芯片,该芯片是专门为大语言模型设计的GPU,采用了Transformer加速解决方案,可用于处理ChatGPT。相较于英伟达的HGX A100 GPU芯片,一台搭载四对H100和双GPU NVLINK的服务器速度还要快上10倍,可以将LLM的处理成本降低一个数量级。此外,H100 NVL配备94GB HBM3显存的PCIe H100 GPU,采用双GPU NVLink,支持商用PCIe服务器轻松扩展。英伟达还宣布推出NVIDIA AI Foundations云服务,让客户可以定制LLM和生成式AI。英伟达通过自身不断创新和技术迭代,帮助推动了AI技术的快速发展,为各行业和领域带来更多的机遇和挑战。