Provedores de modelo
O OpenClaw pode usar muitos provedores de LLM. Escolha um, autentique e, em seguida, defina o modelo padrão comoprovider/model.
Destaque: Venice (Venice AI)
Venice é nossa configuração recomendada do Venice AI para inferência com foco em privacidade, com a opção de usar Opus para as tarefas mais difíceis.- Padrão:
venice/llama-3.3-70b - Melhor no geral:
venice/claude-opus-45(Opus continua sendo o mais forte)
Início rápido (dois passos)
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
Provedores compatíveis (conjunto inicial)
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- Modelos GLM
- MiniMax
- Venice (Venice AI)
- Amazon Bedrock
- Qianfan