دليل تشغيل OpenClaw مع Ollama مجاناً
🚀 دليل تشغيل OpenClaw مع Ollama مجاناً
الفكرة باختصار: بدلاً من الدفع لـ OpenAI أو Anthropic، سنقوم بتثبيت "محرك" الذكاء الاصطناعي (Ollama) على جهازك، ثم نخبر أداة OpenClaw بالاتصال بهذا المحرك المحلي بدلاً من الإنترنت.
1 تثبيت المحرك (Ollama)
أول شيء نحتاجه هو البرنامج الذي سيشغل النماذج.
- اذهب إلى الموقع الرسمي: ollama.com
- حمل النسخة المناسبة لجهازك (Windows, Mac, Linux).
- قم بتثبيت البرنامج بشكل عادي جداً (Next, Next, Finish).
- بعد التثبيت، تأكد أن البرنامج يعمل (ستجد أيقونة صغيرة في شريط المهام بجانب الساعة).
2 تحميل نموذج الذكاء الاصطناعي
الآن نحتاج لـ "العقل" الذي سيفكر. سنحمل نموذج Llama 3 لأنه سريع وقوي جداً ومجاني.
افتح موجه الأوامر (Terminal أو CMD) واكتب الأمر التالي واضغط Enter:
سيقوم البرنامج بتحميل النموذج (حجمه حوالي 4-5 جيجا). انتظر حتى تنتهي العملية وتظهر لك رسالة ترحيب من الذكاء الاصطناعي.
3 إعدادات الربط في OpenClaw
هذه هي أهم خطوة. نذهب لإعدادات أداة OpenClaw (أو أي أداة تستخدمها) ونبحث عن إعدادات الـ API.
يجب تغيير الإعدادات كالتالي:
- API Provider / Base URL: غير الرابط الافتراضي إلى:
http://localhost:11434/v1
- API Key: بما أننا نعمل محلياً، لا نحتاج لمفتاح حقيقي. اكتب أي كلمة عشوائية مثل: ollama أو 12345.
- Model Name: اكتب اسم النموذج الذي حملته في الخطوة 2، وهو: llama3.
4 التجربة والبدء
احفظ الإعدادات في OpenClaw. الآن حاول أن تطلب منه مهمة (مثلاً: "اكتب كود بايثون بسيط").
إذا عملت الأداة، فهذا يعني أنك نجحت! 🎉 أنت الآن تستخدم ذكاءً اصطناعياً قوياً، مجاناً، وبخصوصية تامة، وبدون إنترنت (بعد التحميل).
تشغيل النماذج محلياً يعتمد على قوة جهازك (الرامات وكارت الشاشة). نموذج Llama 3 يعمل جيداً على معظم الأجهزة الحديثة (8GB RAM فأعلى). إذا كان جهازك أضعف، جرب نماذج أصغر مثل
phi3 أو gemma:2b.

تعليقات