मॉडल प्रदाता
OpenClaw can use many LLM providers. Pick a provider, authenticate, then set the default model asprovider/model.
Looking for chat channel docs (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? See Channels.
हाइलाइट: Venice (Venice AI)
Venice, गोपनीयता-प्रथम इंफेरेंस के लिए हमारा अनुशंसित Venice AI सेटअप है, जिसमें कठिन कार्यों के लिए Opus उपयोग करने का विकल्प है।- डिफ़ॉल्ट:
venice/llama-3.3-70b - सर्वश्रेष्ठ समग्र:
venice/claude-opus-45(Opus सबसे शक्तिशाली बना रहता है)
त्वरित प्रारंभ
- प्रदाता के साथ प्रमाणीकरण करें (आमतौर पर
openclaw onboardके माध्यम से)। - डिफ़ॉल्ट मॉडल सेट करें:
प्रदाता दस्तावेज़
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice (Venice AI, गोपनीयता-केंद्रित)
- Hugging Face (Inference)
- Ollama (स्थानीय मॉडल)
- vLLM (local models)
- Qianfan
- NVIDIA
ट्रांसक्रिप्शन प्रदाता
समुदाय टूल्स
- Claude Max API Proxy - Claude Max/Pro सब्सक्रिप्शन को OpenAI-संगत API एंडपॉइंट के रूप में उपयोग करें