Proveedores de modelos
OpenClaw puede usar muchos proveedores de LLM. Elija un proveedor, autentíquese y luego establezca el modelo predeterminado comoprovider/model.
¿Busca documentación de canales de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Consulte Canales.
Destacado: Venice (Venice AI)
Venice es nuestra configuración recomendada de Venice AI para inferencia con prioridad en la privacidad, con la opción de usar Opus para tareas difíciles.- Predeterminado:
venice/llama-3.3-70b - Mejor en general:
venice/claude-opus-45(Opus sigue siendo el más fuerte)
Inicio rápido
- Autentíquese con el proveedor (generalmente mediante
openclaw onboard). - Establezca el modelo predeterminado:
Documentación de proveedores
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modelos GLM
- MiniMax
- Venice (Venice AI, con enfoque en la privacidad)
- Hugging Face (Inference)
- Ollama (modelos locales)
- vLLM (local models)
- Qianfan
- NVIDIA
Proveedores de transcripción
Herramientas de la comunidad
- Claude Max API Proxy - Use una suscripción Claude Max/Pro como un endpoint de API compatible con OpenAI