Proveedores de modelos
OpenClaw puede usar muchos proveedores de LLM. Elija uno, autentíquese y luego configure el modelo predeterminado comoprovider/model.
Destacado: Venice (Venice AI)
Venice es nuestra configuración recomendada de Venice AI para inferencia con enfoque en la privacidad, con la opción de usar Opus para las tareas más difíciles.- Predeterminado:
venice/llama-3.3-70b - Mejor en general:
venice/claude-opus-45(Opus sigue siendo el más sólido)
Inicio rápido (dos pasos)
- Autentíquese con el proveedor (generalmente mediante
openclaw onboard). - Configure el modelo predeterminado:
Proveedores compatibles (conjunto inicial)
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- Modelos GLM
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan