Fournisseurs de modeles
Cette page couvre les fournisseurs de LLM/modeles (et non les canaux de chat comme WhatsApp/Telegram). Pour les regles de selection des modeles, voir /concepts/models.Regles rapides
- Les references de modeles utilisent
provider/model(exemple :opencode/claude-opus-4-6). - Si vous definissez
agents.defaults.models, cela devient la liste d’autorisation. - Assistants CLI :
openclaw onboard,openclaw models list,openclaw models set <provider/model>.
Fournisseurs integres (catalogue pi‑ai)
OpenClaw est fourni avec le catalogue pi‑ai. Ces fournisseurs ne necessitent aucune configurationmodels.providers ; il suffit de definir l’authentification et de choisir un modele.
OpenAI
- Fournisseur :
openai - Authentification :
OPENAI_API_KEY - Exemple de modele :
openai/gpt-5.1-codex - CLI :
openclaw onboard --auth-choice openai-api-key
Anthropic
- Fournisseur :
anthropic - Authentification :
ANTHROPIC_API_KEYouclaude setup-token - Exemple de modele :
anthropic/claude-opus-4-6 - CLI :
openclaw onboard --auth-choice token(coller le setup-token) ouopenclaw models auth paste-token --provider anthropic
OpenAI Code (Codex)
- Fournisseur :
openai-codex - Authentification : OAuth (ChatGPT)
- Exemple de modele :
openai-codex/gpt-5.3-codex - CLI :
openclaw onboard --auth-choice openai-codexouopenclaw models auth login --provider openai-codex
OpenCode Zen
- Fournisseur :
opencode - Authentification :
OPENCODE_API_KEY(ouOPENCODE_ZEN_API_KEY) - Exemple de modele :
opencode/claude-opus-4-6 - CLI :
openclaw onboard --auth-choice opencode-zen
Google Gemini (cle API)
- Fournisseur :
google - Authentification :
GEMINI_API_KEY - Exemple de modele :
google/gemini-3-pro-preview - CLI :
openclaw onboard --auth-choice gemini-api-key
Google Vertex, Antigravity et Gemini CLI
- Fournisseurs :
google-vertex,google-antigravity,google-gemini-cli - Authentification : Vertex utilise gcloud ADC ; Antigravity/Gemini CLI utilisent leurs flux d’authentification respectifs
- L’OAuth Antigravity est fourni comme plugin groupe (
google-antigravity-auth, desactive par defaut).- Activer :
openclaw plugins enable google-antigravity-auth - Connexion :
openclaw models auth login --provider google-antigravity --set-default
- Activer :
- L’OAuth Gemini CLI est fourni comme plugin groupe (
google-gemini-cli-auth, desactive par defaut).- Activer :
openclaw plugins enable google-gemini-cli-auth - Connexion :
openclaw models auth login --provider google-gemini-cli --set-default - Remarque : vous ne collez pas d’identifiant client ni de secret dans
openclaw.json. Le flux de connexion CLI stocke les jetons dans des profils d’authentification sur l’hote de la Gateway (passerelle).
- Activer :
Z.AI (GLM)
- Fournisseur :
zai - Authentification :
ZAI_API_KEY - Exemple de modele :
zai/glm-4.7 - CLI :
openclaw onboard --auth-choice zai-api-key- Alias :
z.ai/*etz-ai/*sont normalises verszai/*
- Alias :
Vercel AI Gateway
- Fournisseur :
vercel-ai-gateway - Authentification :
AI_GATEWAY_API_KEY - Exemple de modele :
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI :
openclaw onboard --auth-choice ai-gateway-api-key
Autres fournisseurs integres
- OpenRouter :
openrouter(OPENROUTER_API_KEY) - Exemple de modele :
openrouter/anthropic/claude-sonnet-4-5 - xAI :
xai(XAI_API_KEY) - Groq :
groq(GROQ_API_KEY) - Cerebras :
cerebras(CEREBRAS_API_KEY)- Les modeles GLM sur Cerebras utilisent les identifiants
zai-glm-4.7etzai-glm-4.6. - URL de base compatible OpenAI :
https://api.cerebras.ai/v1.
- Les modeles GLM sur Cerebras utilisent les identifiants
- Mistral :
mistral(MISTRAL_API_KEY) - GitHub Copilot :
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference :
huggingface(HUGGINGFACE_HUB_TOKENouHF_TOKEN) — routeur compatible OpenAI ; exemple de modèle :huggingface/deepseek-ai/DeepSeek-R1; CLI :openclaw onboard --auth-choice huggingface-api-key. Voir Hugging Face (Inference).
Fournisseurs via models.providers (URL personnalisee/de base)
Utilisez models.providers (ou models.json) pour ajouter des fournisseurs personnalises ou
des proxys compatibles OpenAI/Anthropic.
Moonshot AI (Kimi)
Moonshot utilise des endpoints compatibles OpenAI ; configurez-le donc comme un fournisseur personnalise :- Fournisseur :
moonshot - Authentification :
MOONSHOT_API_KEY - Exemple de modele :
moonshot/kimi-k2.5
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo
Kimi Coding
Kimi Coding utilise l’endpoint compatible Anthropic de Moonshot AI :- Fournisseur :
kimi-coding - Authentification :
KIMI_API_KEY - Exemple de modele :
kimi-coding/k2p5
Qwen OAuth (offre gratuite)
Qwen fournit un acces OAuth a Qwen Coder + Vision via un flux device-code. Activez le plugin groupe, puis connectez-vous :qwen-portal/coder-modelqwen-portal/vision-model
Synthetic
Synthetic fournit des modeles compatibles Anthropic derriere le fournisseursynthetic :
- Fournisseur :
synthetic - Authentification :
SYNTHETIC_API_KEY - Exemple de modele :
synthetic/hf:MiniMaxAI/MiniMax-M2.1 - CLI :
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax est configure viamodels.providers car il utilise des endpoints personnalises :
- MiniMax (compatible Anthropic) :
--auth-choice minimax-api - Authentification :
MINIMAX_API_KEY
Ollama
Ollama est un runtime LLM local qui fournit une API compatible OpenAI :- Fournisseur :
ollama - Authentification : aucune requise (serveur local)
- Exemple de modele :
ollama/llama3.3 - Installation : https://ollama.ai
http://127.0.0.1:11434/v1. Voir /providers/ollama pour des recommandations de modeles et une configuration personnalisee.
vLLM
vLLM est un serveur local (ou auto-hébergé) compatible OpenAI :- Fournisseur :
vllm - Auth : Optionnelle (selon votre serveur)
- URL de base par défaut :
http://127.0.0.1:8000/v1
/v1/models) :
Proxys locaux (LM Studio, vLLM, LiteLLM, etc.)
Exemple (compatible OpenAI) :- Pour les fournisseurs personnalises,
reasoning,input,cost,contextWindowetmaxTokenssont facultatifs. Lorsqu’ils sont omis, OpenClaw utilise par defaut :reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recommande : definir des valeurs explicites correspondant aux limites de votre proxy/modele.