عرض حصري
VULTR
🚀 احصل على 300 دولار من رصيد Vultr!للعملاء الجدد · الرصيد صالح لمدة 30 يومًا · يخضع للشروط
اطلب 300 دولار الآن →
عرض شروط البرنامج
دليلMarch 10, 20269 دقائق للقراءة

كيف تشغل Llama 3 على أرخص GPU سحابي

يمكن أن يكلف تشغيل Llama 3 على GPU السحابية ما لا يزيد عن $0.40/ساعة لنموذج 8B أو $2.50/ساعة لنموذج 70B. إليك بالضبط كيفية إعداده على أرخص المزودين.

متطلبات GPU حسب النموذج

النموذجالحد الأدنى VRAMGPU الموصى بهاأدنى سعر/ساعة
Llama 3 8B (FP16)16GBRTX 4090 / A10G$0.35
Llama 3 8B (4-bit)6GBRTX 3080 / A4000$0.20
Llama 3 70B (FP16)140GB2× A100 80GB$5.50
Llama 3 70B (4-bit)40GBA100 40GB$1.20

أسرع إعداد: Llama 3 8B على Vast.ai

التكلفة الإجمالية: ~$0.35–0.50/hr

  • أنشئ حساباً على vast.ai، وفلتر لـ RTX 4090 بأقل من $0.50/hr
  • اختر قالب PyTorch 2.x + CUDA 12.x
  • اتصل عبر SSH، ثم شغّل: curl -fsSL https://ollama.ai/install.sh | sh
  • أطلق: ollama run llama3
  • نموذج 8B (~4.7GB) يُحمّل ويصبح جاهزاً في دقائق

مقارنة التكلفة: Llama 3 مقابل OpenAI

  • Llama 3 8B على Vast.ai: ~$0.80/يوم لمليون رمز
  • Llama 3 70B على RunPod A100: ~$12/يوم لمليون رمز
  • واجهة GPT-4o: ~$10/يوم لمليون رمز
  • واجهة GPT-4o mini: ~$0.30/يوم لمليون رمز

اعثر على أرخص GPU لـ Llama 3

قارن أسعار A100 و RTX 4090 و H100 عبر أكثر من 17 مزوداً.

قارن أسعار GPU ←

Compare GPU Cloud Prices Now

Save up to 80% on your GPU cloud costs with our real-time price comparison.

Start Comparing →

احصل على تنبيهات أسعار GPU

تم إشعارك عندما تنخفض أسعار GPUs المفضلة لديك

بدون رسائل مزعجة. الغِ الاشتراك في أي وقت.