Modelproviders
OpenClaw kan veel LLM-providers gebruiken. Kies een provider, authenticeer en stel vervolgens het standaardmodel in alsprovider/model.
Op zoek naar documentatie over chatkanalen (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Zie Kanalen.
Uitgelicht: Venice (Venice AI)
Venice is onze aanbevolen Venice AI-configuratie voor privacy-first inferentie met een optie om Opus te gebruiken voor zware taken.- Standaard:
venice/llama-3.3-70b - Beste overall:
venice/claude-opus-45(Opus blijft de sterkste)
Snelle start
- Authenticeer bij de provider (meestal via
openclaw onboard). - Stel het standaardmodel in:
Providerdocumentatie
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM-modellen
- MiniMax
- Venice (Venice AI, privacygericht)
- Hugging Face (Inference)
- Ollama (lokale modellen)
- vLLM (local models)
- Qianfan
- NVIDIA
Transcriptieproviders
Communitytools
- Claude Max API Proxy - Gebruik een Claude Max/Pro-abonnement als een OpenAI-compatibel API-eindpunt