Saltar al contenido principal

Proveedores de modelos

Esta página cubre proveedores de LLM/modelos (no canales de chat como WhatsApp/Telegram). Para las reglas de selección de modelos, consulte /concepts/models.

Reglas rápidas

  • Las referencias de modelos usan provider/model (ejemplo: opencode/claude-opus-4-6).
  • Si establece agents.defaults.models, se convierte en la lista de permitidos.
  • Ayudantes de la CLI: openclaw onboard, openclaw models list, openclaw models set <provider/model>.

Proveedores integrados (catálogo pi‑ai)

OpenClaw se entrega con el catálogo pi‑ai. Estos proveedores no requieren configuración de models.providers; solo establezca la autenticación y elija un modelo.

OpenAI

  • Proveedor: openai
  • Autenticación: OPENAI_API_KEY
  • Modelo de ejemplo: openai/gpt-5.1-codex
  • CLI: openclaw onboard --auth-choice openai-api-key
{
  agents: { defaults: { model: { primary: "openai/gpt-5.1-codex" } } },
}

Anthropic

  • Proveedor: anthropic
  • Autenticación: ANTHROPIC_API_KEY o claude setup-token
  • Modelo de ejemplo: anthropic/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice token (pegue el token de configuración) o openclaw models auth paste-token --provider anthropic
{
  agents: { defaults: { model: { primary: "anthropic/claude-opus-4-6" } } },
}

OpenAI Code (Codex)

  • Proveedor: openai-codex
  • Autenticación: OAuth (ChatGPT)
  • Modelo de ejemplo: openai-codex/gpt-5.3-codex
  • CLI: openclaw onboard --auth-choice openai-codex o openclaw models auth login --provider openai-codex
{
  agents: { defaults: { model: { primary: "openai-codex/gpt-5.3-codex" } } },
}

OpenCode Zen

  • Proveedor: opencode
  • Autenticación: OPENCODE_API_KEY (o OPENCODE_ZEN_API_KEY)
  • Modelo de ejemplo: opencode/claude-opus-4-6
  • CLI: openclaw onboard --auth-choice opencode-zen
{
  agents: { defaults: { model: { primary: "opencode/claude-opus-4-6" } } },
}

Google Gemini (clave de API)

  • Proveedor: google
  • Autenticación: GEMINI_API_KEY
  • Modelo de ejemplo: google/gemini-3-pro-preview
  • CLI: openclaw onboard --auth-choice gemini-api-key

Google Vertex, Antigravity y Gemini CLI

  • Proveedores: google-vertex, google-antigravity, google-gemini-cli
  • Autenticación: Vertex usa gcloud ADC; Antigravity/Gemini CLI usan sus respectivos flujos de autenticación
  • OAuth de Antigravity se entrega como un complemento incluido (google-antigravity-auth, deshabilitado de forma predeterminada).
    • Habilitar: openclaw plugins enable google-antigravity-auth
    • Iniciar sesión: openclaw models auth login --provider google-antigravity --set-default
  • OAuth de Gemini CLI se entrega como un complemento incluido (google-gemini-cli-auth, deshabilitado de forma predeterminada).
    • Habilitar: openclaw plugins enable google-gemini-cli-auth
    • Iniciar sesión: openclaw models auth login --provider google-gemini-cli --set-default
    • Nota: no pegue un id de cliente ni un secreto en openclaw.json. El flujo de inicio de sesión de la CLI almacena los tokens en perfiles de autenticación en el host del Gateway.

Z.AI (GLM)

  • Proveedor: zai
  • Autenticación: ZAI_API_KEY
  • Modelo de ejemplo: zai/glm-4.7
  • CLI: openclaw onboard --auth-choice zai-api-key
    • Alias: z.ai/* y z-ai/* se normalizan a zai/*

Vercel AI Gateway

  • Proveedor: vercel-ai-gateway
  • Autenticación: AI_GATEWAY_API_KEY
  • Modelo de ejemplo: vercel-ai-gateway/anthropic/claude-opus-4.6
  • CLI: openclaw onboard --auth-choice ai-gateway-api-key

Otros proveedores integrados

  • OpenRouter: openrouter (OPENROUTER_API_KEY)
  • Modelo de ejemplo: openrouter/anthropic/claude-sonnet-4-5
  • xAI: xai (XAI_API_KEY)
  • Groq: groq (GROQ_API_KEY)
  • Cerebras: cerebras (CEREBRAS_API_KEY)
    • Los modelos GLM en Cerebras usan los id zai-glm-4.7 y zai-glm-4.6.
    • URL base compatible con OpenAI: https://api.cerebras.ai/v1.
  • Mistral: mistral (MISTRAL_API_KEY)
  • GitHub Copilot: github-copilot (COPILOT_GITHUB_TOKEN / GH_TOKEN / GITHUB_TOKEN)
  • Hugging Face Inference: huggingface (HUGGINGFACE_HUB_TOKEN o HF_TOKEN) — enrutador compatible con OpenAI; modelo de ejemplo: huggingface/deepseek-ai/DeepSeek-R1; CLI: openclaw onboard --auth-choice huggingface-api-key. Consulta Hugging Face (Inference).

Proveedores vía models.providers (URL personalizada/base)

Use models.providers (o models.json) para agregar proveedores personalizados o proxies compatibles con OpenAI/Anthropic.

Moonshot AI (Kimi)

Moonshot usa endpoints compatibles con OpenAI, por lo que se configura como un proveedor personalizado:
  • Proveedor: moonshot
  • Autenticación: MOONSHOT_API_KEY
  • Modelo de ejemplo: moonshot/kimi-k2.5
IDs de modelos Kimi K2:
  • moonshot/kimi-k2.5
  • moonshot/kimi-k2-0905-preview
  • moonshot/kimi-k2-turbo-preview
  • moonshot/kimi-k2-thinking
  • moonshot/kimi-k2-thinking-turbo
{
  agents: {
    defaults: { model: { primary: "moonshot/kimi-k2.5" } },
  },
  models: {
    mode: "merge",
    providers: {
      moonshot: {
        baseUrl: "https://api.moonshot.ai/v1",
        apiKey: "${MOONSHOT_API_KEY}",
        api: "openai-completions",
        models: [{ id: "kimi-k2.5", name: "Kimi K2.5" }],
      },
    },
  },
}

Kimi Coding

Kimi Coding usa el endpoint compatible con Anthropic de Moonshot AI:
  • Proveedor: kimi-coding
  • Autenticación: KIMI_API_KEY
  • Modelo de ejemplo: kimi-coding/k2p5
{
  env: { KIMI_API_KEY: "sk-..." },
  agents: {
    defaults: { model: { primary: "kimi-coding/k2p5" } },
  },
}

Qwen OAuth (nivel gratuito)

Qwen proporciona acceso OAuth a Qwen Coder + Vision mediante un flujo de código de dispositivo. Habilite el complemento incluido y luego inicie sesión:
openclaw plugins enable qwen-portal-auth
openclaw models auth login --provider qwen-portal --set-default
Referencias de modelos:
  • qwen-portal/coder-model
  • qwen-portal/vision-model
Consulte /providers/qwen para obtener detalles y notas de configuración.

Synthetic

Synthetic proporciona modelos compatibles con Anthropic detrás del proveedor synthetic:
  • Proveedor: synthetic
  • Autenticación: SYNTHETIC_API_KEY
  • Modelo de ejemplo: synthetic/hf:MiniMaxAI/MiniMax-M2.1
  • CLI: openclaw onboard --auth-choice synthetic-api-key
{
  agents: {
    defaults: { model: { primary: "synthetic/hf:MiniMaxAI/MiniMax-M2.1" } },
  },
  models: {
    mode: "merge",
    providers: {
      synthetic: {
        baseUrl: "https://api.synthetic.new/anthropic",
        apiKey: "${SYNTHETIC_API_KEY}",
        api: "anthropic-messages",
        models: [{ id: "hf:MiniMaxAI/MiniMax-M2.1", name: "MiniMax M2.1" }],
      },
    },
  },
}

MiniMax

MiniMax se configura mediante models.providers porque usa endpoints personalizados:
  • MiniMax (compatible con Anthropic): --auth-choice minimax-api
  • Autenticación: MINIMAX_API_KEY
Consulte /providers/minimax para obtener detalles de configuración, opciones de modelos y fragmentos de configuración.

Ollama

Ollama es un runtime de LLM local que proporciona una API compatible con OpenAI:
  • Proveedor: ollama
  • Autenticación: No requerida (servidor local)
  • Modelo de ejemplo: ollama/llama3.3
  • Instalación: https://ollama.ai
# Install Ollama, then pull a model:
ollama pull llama3.3
{
  agents: {
    defaults: { model: { primary: "ollama/llama3.3" } },
  },
}
Ollama se detecta automáticamente cuando se ejecuta localmente en http://127.0.0.1:11434/v1. Consulte /providers/ollama para recomendaciones de modelos y configuración personalizada.

vLLM

vLLM es un servidor local (o autoalojado) compatible con OpenAI:
  • Proveedor: vllm
  • Auth: Opcional (depende de tu servidor)
  • URL base predeterminada: http://127.0.0.1:8000/v1
Para habilitar la autodetección localmente (cualquier valor funciona si tu servidor no exige autenticación):
export VLLM_API_KEY="vllm-local"
Luego configura un modelo (sustituye por uno de los IDs devueltos por /v1/models):
{
  agents: {
    defaults: { model: { primary: "vllm/your-model-id" } },
  },
}
Consulta /providers/vllm para más detalles.

Proxies locales (LM Studio, vLLM, LiteLLM, etc.)

Ejemplo (compatible con OpenAI):
{
  agents: {
    defaults: {
      model: { primary: "lmstudio/minimax-m2.1-gs32" },
      models: { "lmstudio/minimax-m2.1-gs32": { alias: "Minimax" } },
    },
  },
  models: {
    providers: {
      lmstudio: {
        baseUrl: "http://localhost:1234/v1",
        apiKey: "LMSTUDIO_KEY",
        api: "openai-completions",
        models: [
          {
            id: "minimax-m2.1-gs32",
            name: "MiniMax M2.1",
            reasoning: false,
            input: ["text"],
            cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 },
            contextWindow: 200000,
            maxTokens: 8192,
          },
        ],
      },
    },
  },
}
Notas:
  • Para proveedores personalizados, reasoning, input, cost, contextWindow y maxTokens son opcionales. Cuando se omiten, OpenClaw usa de forma predeterminada:
    • reasoning: false
    • input: ["text"]
    • cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }
    • contextWindow: 200000
    • maxTokens: 8192
  • Recomendado: establezca valores explícitos que coincidan con los límites de su proxy/modelo.

Ejemplos de la CLI

openclaw onboard --auth-choice opencode-zen
openclaw models set opencode/claude-opus-4-6
openclaw models list
Vea también: /gateway/configuration para ejemplos completos de configuración.