What is NVIDIA H100?
NVIDIA H100 Tensor Core GPU 是 NVIDIA 的旗舰数据中心 GPU,基于 Hopper 架构。2022 年发布,为 AI、HPC 和 LLM 提供前所未有的性能。
80GB HBM3 内存,3.35 TB/s 带宽。Transformer Engine 提供比 A100 快 6 倍的 LLM 训练速度。
创新:第 4 代 Tensor Cores、FP8 (1,979 TFLOPS)、MIG(最多 7 个实例)、NVLink 900 GB/s。
Specifications
架构Hopper
CUDA 核心16,896
Tensor Cores528(第 4 代)
内存80GB HBM3
带宽3.35 TB/s
FP16989 TFLOPS
FP81,979 TFLOPS
TDP700W
Best Use Cases NVIDIA H100
- ✓LLM 训练 - 数千亿参数模型
- ✓LLM 推理 - 超低延迟生产 AI
- ✓生成式 AI - GPT-4、Stable Diffusion、内容创作
- ✓HPC - 科学模拟、气候建模
- ✓推荐系统 - 大规模个性化
- ✓NLP - 翻译、聊天机器人、情感分析
- ✓计算机视觉 - 物体检测、自动驾驶
- ✓药物发现 - 分子建模
NVIDIA H100 vs GPU
| Comparison | Performance | Preço | Ideal Para |
|---|
💡 Provider Tips
Lambda Labs、CoreWeave:$3.50/小时。RunPod:31 个区域。Vast.ai:spot 价格(注意中断)。
FAQs
H100 最适合什么?
LLM 训练、生成式 AI、HPC。Transformer Engine 提供比 A100 快 3-6 倍的速度。
H100 云端多少钱?
Lambda Labs 和 CoreWeave 起价$3.50/小时。Spot 实例可便宜 30-50%。
H100 比 A100 值得吗?
对于大型 LLM 是(好 3-6 倍)。对于小型模型,A100 性价比更好。
多少 VRAM?
80GB HBM3,3.35 TB/s - 适合高达 1750 亿参数的 LLM。
H100 用于 Stable Diffusion?
可以,但过度配置。RTX 4090($0.35/小时)性价比更好。