موفّرو النماذج
يمكن لـ OpenClaw استخدام العديد من موفّري LLM. اختر موفّرًا، ثم قم بالمصادقة، وبعدها اضبط النموذج الافتراضي علىprovider/model.
هل تبحث عن توثيق قنوات الدردشة (WhatsApp/Telegram/Discord/Slack/Mattermost (إضافة)/إلخ)؟ راجع القنوات. انظر Channels.
تسليط الضوء: Venice (Venice AI)
تُعد Venice إعداد Venice AI الموصى به لدينا للاستدلال الذي يركّز على الخصوصية، مع خيار استخدام Opus للمهام الصعبة.- الافتراضي:
venice/llama-3.3-70b - الأفضل إجمالًا:
venice/claude-opus-45(لا يزال Opus الأقوى)
البدء السريع
- قم بالمصادقة مع الموفّر (عادةً عبر
openclaw onboard). - اضبط النموذج الافتراضي:
توثيق الموفّرين
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (بوابة موحّدة)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI، يركّز على الخصوصية)
- Hugging Face (Inference)
- Ollama (نماذج محلية)
- موفري خدمات الترجمة
- Qianfan
- NVIDIA
موفري خدمات الترجمة
أدوات المجتمع
- Claude Max API Proxy - استخدم اشتراك Claude Max/Pro كنقطة نهاية API متوافقة مع OpenAI