Fournisseurs de modèles
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez un fournisseur, authentifiez-vous, puis définissez le modèle par défaut surprovider/model.
Vous cherchez la documentation des canaux de discussion (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.) ? Voir Canaux.
Mise en avant : Venice (Venice AI)
Venice est notre configuration Venice AI recommandée pour une inférence axée sur la confidentialité, avec la possibilité d’utiliser Opus pour les tâches difficiles.- Par défaut :
venice/llama-3.3-70b - Meilleur choix global :
venice/claude-opus-45(Opus reste le plus performant)
Demarrage rapide
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
Documentation des fournisseurs
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (passerelle unifiée)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modèles GLM
- MiniMax
- Venice (Venice AI, axé sur la confidentialité)
- Hugging Face (Inference)
- Ollama (modèles locaux)
- vLLM (modèles locaux)
- Qianfan
- NVIDIA
Fournisseurs de transcription
Outils communautaires
- Claude Max API Proxy - Utilisez un abonnement Claude Max/Pro comme point de terminaison d’API compatible OpenAI