Fournisseurs de modèles
OpenClaw peut utiliser de nombreux fournisseurs de LLM. Choisissez-en un, authentifiez-vous, puis définissez le modèle par défaut commeprovider/model.
Mise en avant : Venice (Venice AI)
Venice est notre configuration Venice AI recommandée pour une inférence axée sur la confidentialité, avec la possibilité d’utiliser Opus pour les tâches les plus difficiles.- Par défaut :
venice/llama-3.3-70b - Meilleur choix global :
venice/claude-opus-45(Opus reste le plus performant)
Démarrage rapide (deux étapes)
- Authentifiez-vous auprès du fournisseur (généralement via
openclaw onboard). - Définissez le modèle par défaut :
Fournisseurs pris en charge (ensemble de départ)
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- Modèles GLM
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan