What is NVIDIA H100?
NVIDIA H100 Tensor Core GPU は、Hopper アーキテクチャに基づく NVIDIA のフラッグシップデータセンター GPU。2022 年発売、AI、HPC、LLM 向けに前例のないパフォーマンスを提供。
80GB HBM3 メモリ、3.35 TB/s バンド幅。Transformer Engine は A100 と比較して LLM トレーニングを最大 6 倍高速化。
イノベーション:第 4 世代 Tensor Cores、FP8 (1,979 TFLOPS)、MIG(最大 7 インスタンス)、NVLink 900 GB/s。
Specifications
アーキテクチャHopper
CUDA コア16,896
Tensor Cores528(第 4 世代)
メモリ80GB HBM3
バンド幅3.35 TB/s
FP16989 TFLOPS
FP81,979 TFLOPS
TDP700W
Best Use Cases NVIDIA H100
- ✓LLM トレーニング - 数千億パラメータモデル
- ✓LLM 推論 - 超低遅延プロダクション AI
- ✓生成 AI - GPT-4、Stable Diffusion、コンテンツ作成
- ✓HPC - 科学シミュレーション、気候モデリング
- ✓推薦システム - 大規模パーソナライゼーション
- ✓NLP - 翻訳、チャットボット、感情分析
- ✓コンピュータビジョン - 物体検出、自動運転車
- ✓創薬 - 分子モデリング
NVIDIA H100 vs GPU
| Comparison | Performance | Preço | Ideal Para |
|---|
💡 Provider Tips
Lambda Labs、CoreWeave:$3.50/時間。RunPod:31 リージョン。Vast.ai:spot 価格(中断に注意)。
FAQs
H100 の最適な用途は?
LLM トレーニング、生成 AI、HPC。Transformer Engine は A100 より 3-6 倍高速。
H100 クラウドの費用は?
Lambda Labs と CoreWeave で$3.50/時間〜。Spot インスタンスは 30-50% 安。
H100 は A100 より価値ある?
大規模 LLM には是的(3-6 倍良い)。小規模モデルには A100 がコストパフォーマンス良い。
VRAM は?
80GB HBM3、3.35 TB/s - 最大 1750 億パラメータ LLM に最適。
Stable Diffusion に H100?
動作するが過剰。RTX 4090($0.35/時間)がコストパフォーマンス良い。