Proveedores de modelos
Esta página cubre proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulte /concepts/models.Reglas rápidas
- Las referencias de modelos usan
provider/model(ejemplo:opencode/claude-opus-4-6). - Si establece
agents.defaults.models, se convierte en la lista de permitidos. - Ayudantes de la CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>.
Proveedores integrados (catálogo pi‑ai)
OpenClaw se entrega con el catálogo pi‑ai. Estos proveedores no requieren configuración demodels.providers; solo establezca la autenticación y elija un modelo.
OpenAI
- Proveedor:
openai - Autenticación:
OPENAI_API_KEY - Modelo de ejemplo:
openai/gpt-5.1-codex - CLI:
openclaw onboard --auth-choice openai-api-key
Anthropic
- Proveedor:
anthropic - Autenticación:
ANTHROPIC_API_KEYoclaude setup-token - Modelo de ejemplo:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(pegue el token de configuración) oopenclaw models auth paste-token --provider anthropic
OpenAI Code (Codex)
- Proveedor:
openai-codex - Autenticación: OAuth (ChatGPT)
- Modelo de ejemplo:
openai-codex/gpt-5.3-codex - CLI:
openclaw onboard --auth-choice openai-codexoopenclaw models auth login --provider openai-codex
OpenCode Zen
- Proveedor:
opencode - Autenticación:
OPENCODE_API_KEY(oOPENCODE_ZEN_API_KEY) - Modelo de ejemplo:
opencode/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice opencode-zen
Google Gemini (clave de API)
- Proveedor:
google - Autenticación:
GEMINI_API_KEY - Modelo de ejemplo:
google/gemini-3-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
Google Vertex, Antigravity y Gemini CLI
- Proveedores:
google-vertex,google-antigravity,google-gemini-cli - Autenticación: Vertex usa gcloud ADC; Antigravity/Gemini CLI usan sus respectivos flujos de autenticación
- OAuth de Antigravity se entrega como un complemento incluido (
google-antigravity-auth, deshabilitado de forma predeterminada).- Habilitar:
openclaw plugins enable google-antigravity-auth - Iniciar sesión:
openclaw models auth login --provider google-antigravity --set-default
- Habilitar:
- OAuth de Gemini CLI se entrega como un complemento incluido (
google-gemini-cli-auth, deshabilitado de forma predeterminada).- Habilitar:
openclaw plugins enable google-gemini-cli-auth - Iniciar sesión:
openclaw models auth login --provider google-gemini-cli --set-default - Nota: no pegue un id de cliente ni un secreto en
openclaw.json. El flujo de inicio de sesión de la CLI almacena los tokens en perfiles de autenticación en el host del Gateway.
- Habilitar:
Z.AI (GLM)
- Proveedor:
zai - Autenticación:
ZAI_API_KEY - Modelo de ejemplo:
zai/glm-4.7 - CLI:
openclaw onboard --auth-choice zai-api-key- Alias:
z.ai/*yz-ai/*se normalizan azai/*
- Alias:
Vercel AI Gateway
- Proveedor:
vercel-ai-gateway - Autenticación:
AI_GATEWAY_API_KEY - Modelo de ejemplo:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Otros proveedores integrados
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Modelo de ejemplo:
openrouter/anthropic/claude-sonnet-4-5 - xAI:
xai(XAI_API_KEY) - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Los modelos GLM en Cerebras usan los id
zai-glm-4.7yzai-glm-4.6. - URL base compatible con OpenAI:
https://api.cerebras.ai/v1.
- Los modelos GLM en Cerebras usan los id
- Mistral:
mistral(MISTRAL_API_KEY) - GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENoHF_TOKEN) — enrutador compatible con OpenAI; modelo de ejemplo:huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Consulta Hugging Face (Inference).
Proveedores vía models.providers (URL personalizada/base)
Use models.providers (o models.json) para agregar proveedores personalizados o
proxies compatibles con OpenAI/Anthropic.
Moonshot AI (Kimi)
Moonshot usa endpoints compatibles con OpenAI, por lo que se configura como un proveedor personalizado:- Proveedor:
moonshot - Autenticación:
MOONSHOT_API_KEY - Modelo de ejemplo:
moonshot/kimi-k2.5
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo
Kimi Coding
Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:- Proveedor:
kimi-coding - Autenticación:
KIMI_API_KEY - Modelo de ejemplo:
kimi-coding/k2p5
Qwen OAuth (nivel gratuito)
Qwen proporciona acceso OAuth a Qwen Coder + Vision mediante un flujo de código de dispositivo. Habilite el complemento incluido y luego inicie sesión:qwen-portal/coder-modelqwen-portal/vision-model
Synthetic
Synthetic proporciona modelos compatibles con Anthropic detrás del proveedorsynthetic:
- Proveedor:
synthetic - Autenticación:
SYNTHETIC_API_KEY - Modelo de ejemplo:
synthetic/hf:MiniMaxAI/MiniMax-M2.1 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax se configura mediantemodels.providers porque usa endpoints personalizados:
- MiniMax (compatible con Anthropic):
--auth-choice minimax-api - Autenticación:
MINIMAX_API_KEY
Ollama
Ollama es un runtime de LLM local que proporciona una API compatible con OpenAI:- Proveedor:
ollama - Autenticación: No requerida (servidor local)
- Modelo de ejemplo:
ollama/llama3.3 - Instalación: https://ollama.ai
http://127.0.0.1:11434/v1. Consulte /providers/ollama para recomendaciones de modelos y configuración personalizada.
vLLM
vLLM es un servidor local (o autoalojado) compatible con OpenAI:- Proveedor:
vllm - Auth: Opcional (depende de tu servidor)
- URL base predeterminada:
http://127.0.0.1:8000/v1
/v1/models):
Proxies locales (LM Studio, vLLM, LiteLLM, etc.)
Ejemplo (compatible con OpenAI):- Para proveedores personalizados,
reasoning,input,cost,contextWindowymaxTokensson opcionales. Cuando se omiten, OpenClaw usa de forma predeterminada:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Recomendado: establezca valores explícitos que coincidan con los límites de su proxy/modelo.