النماذج المحلية
التشغيل المحلي ممكن، لكن OpenClaw يتوقع سياقًا كبيرًا ودفاعات قوية ضد حقن المطالبات. البطاقات الصغيرة تقطع السياق وتسرّب السلامة. استهدف مستوى عالٍ: ≥2 من أجهزة Mac Studio المُشبَعة بالكامل أو تجهيز GPU مكافئ (~30 ألف دولار+). تعمل بطاقة 24 غيغابايت واحدة فقط مع مطالبات أخف وزمن استجابة أعلى. استخدم أكبر/نسخة كاملة الحجم من النموذج يمكنك تشغيلها؛ فالإصدارات المُكمَّمة بشدة أو «الصغيرة» تزيد مخاطر حقن المطالبات (انظر الأمان).الموصى به: LM Studio + MiniMax M2.1 (Responses API، حجم كامل)
أفضل حزمة محلية حاليًا. حمّل MiniMax M2.1 في LM Studio، فعِّل الخادم المحلي (الافتراضيhttp://127.0.0.1:1234)، واستخدم Responses API لإبقاء الاستدلال منفصلًا عن النص النهائي.
- ثبّت LM Studio: https://lmstudio.ai
- في LM Studio، نزّل أكبر إصدار متاح من MiniMax M2.1 (تجنّب الإصدارات «الصغيرة»/المكمَّمة بشدة)، ابدأ الخادم، وتأكد أن
http://127.0.0.1:1234/v1/modelsيسرده. - أبقِ النموذج محمّلًا؛ التحميل البارد يضيف زمن بدء.
- عدّل
contextWindow/maxTokensإذا اختلف إصدار LM Studio لديك. - لِـ WhatsApp، التزم بـ Responses API بحيث يُرسل النص النهائي فقط.
models.mode: "merge" لتظل البدائل الاحتياطية متاحة.
تهيئة هجينة: مستضاف أساسي، محلي احتياطي
المحلي أولًا مع شبكة أمان مستضافة
بدّل ترتيب الأساسي والاحتياطي؛ أبقِ كتلة الموفّرين نفسها وmodels.mode: "merge" لتتمكن من الرجوع إلى Sonnet أو Opus عندما يتعطل الصندوق المحلي.
الاستضافة الإقليمية / توجيه البيانات
- تتوفر أيضًا إصدارات MiniMax/Kimi/GLM المستضافة على OpenRouter مع نقاط نهاية مُثبّتة إقليميًا (مثل الاستضافة داخل الولايات المتحدة). اختر الإصدار الإقليمي هناك للحفاظ على حركة البيانات ضمن ولايتك القضائية المختارة مع الاستمرار في استخدام
models.mode: "merge"كبدائل احتياطية لـ Anthropic/OpenAI. - يظل المحلي فقط أقوى مسار للخصوصية؛ أما التوجيه الإقليمي المستضاف فهو حلّ وسط عندما تحتاج ميزات المزوّدين مع رغبتك في التحكم بتدفّق البيانات.
وكلاء محليون آخرون متوافقون مع OpenAI
تعمل vLLM وLiteLLM وOAI-proxy أو البوابات المخصّصة إذا كشفت نقطة نهاية/v1 بأسلوب OpenAI. استبدل كتلة الموفّر أعلاه بنقطة النهاية ومعرّف النموذج لديك:
models.mode: "merge" حتى تظل النماذج المستضافة متاحة كبدائل احتياطية.
استكشاف الأخطاء وإصلاحها
- هل يستطيع Gateway الوصول إلى الوكيل؟
curl http://127.0.0.1:1234/v1/models.curl http://127.0.0.1:1234/v1/models. - هل تم تفريغ نموذج LM Studio؟ أعد التحميل؛ البدء البارد سبب شائع للتعليق. فالبداية الباردة هي قضية “معلقة” مشتركة.
- أخطاء في السياق؟ أخطاء في السياق؟ أخطاء السياق؟ خفّض
contextWindowأو ارفع حدّ الخادم لديك. - السلامة: النماذج المحلية تتجاوز مرشّحات المزوّدين؛ أبقِ الوكلاء محدودين وفعّل الضغط لتقليل نصف قطر تأثير حقن المطالبات.