英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

产品介绍

规格参数

英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

NVIDIA H100 TENSOR CORE GPU
前所未有的性能、可扩展性和数据中心的安全性 加速计算的一个数量级飞跃
NVIDIA H100 Tensor Core GPU提供了前所未有的性能,每个工作负载的可扩展性和安全性。使用NVIDIA NVLink 交换机系统中,最多可以连接256个H100 GPU以加速exascale工作负载,另外可通过专用的 Transformer 引擎来为万亿参数语言模型提供支持。H100 使用 NVIDIA Hopper? 架构中的创新提供先进的对话式 AI,与上一代产品相比,可将大型语言模型的速度提高惊人的 30 倍。
安全加速从企业级到百亿亿级 (Exascale) 的工作负载
变革 AI 训练
NVIDIA H100 GPU 配备第四代 Tensor Core 和 Transformer 引擎(FP8 精度),与上一代产品相比,可为多专家 (MoE) 模型提供高 9 倍的训练速度。通过结合可提供 900 GB/s GPU 间互连的第四代 NVlink、可跨节点加速每个 GPU 通信的 NVLINK Switch 系统、PCIe 5.0 以及 NVIDIA Magnum IO? 软件,为小型企业到大规模统一 GPU 集群提供高效的可扩展性。
在数据中心级部署 H100 GPU 可提供出色的性能,并使所有研究人员均能轻松使用新一代百亿亿次级 (Exascale) 高性能计算 (HPC) 和万亿参数的 AI。

针对大型模型提供高达 9 倍的 AI 训练速度
多专家模型(3950 亿个参数)
英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保 英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保

为企业优化软件和服务
英伟达NVIDIA H100 80GB GPU卡 CUDA 核数 7296个,80GB HBM2 显存,最大功耗 350瓦;PCI Express 4.0 x16;无显示输出接口;双槽全高全长,3年质保