独家优惠
VULTR
🚀 获得 $300 Vultr 抵用金!新客户专享 · 抵用金有效期 30 天 · 受条款约束
立即领取 $300 →
查看计划条款
指南2026年3月10日9 分钟阅读

如何在最便宜的GPU云上运行Llama 3

在云GPU上运行Llama 3,8B模型最低仅需$0.40/小时,70B模型仅需$2.50/小时。以下是在最便宜的服务商上进行设置的完整教程。

各模型GPU需求

模型最低显存推荐GPU最低价格/小时
Llama 3 8B (FP16)16GBRTX 4090 / A10G$0.35
Llama 3 8B (4-bit)6GBRTX 3080 / A4000$0.20
Llama 3 70B (FP16)140GB2x A100 80GB$5.50
Llama 3 70B (4-bit)40GBA100 40GB$1.20

最快设置:在Vast.ai上运行Llama 3 8B

总费用:~$0.35-0.50/hr

  • 在vast.ai创建账户,筛选$0.50/hr以下的RTX 4090
  • 选择PyTorch 2.x + CUDA 12.x模板
  • 通过SSH连接,然后运行:curl -fsSL https://ollama.ai/install.sh | sh
  • 启动:ollama run llama3
  • 8B模型(约4.7GB)下载后几分钟即可就绪

找到运行Llama 3最便宜的GPU

对比17+服务商的A100、RTX 4090和H100价格。

对比GPU价格 →

Compare GPU Cloud Prices Now

Save up to 80% on your GPU cloud costs with our real-time price comparison.

Start Comparing →

获取 GPU 价格提醒

当您喜爱的 GPU 价格下降时收到通知

无垃圾邮件。随时取消订阅。