Provedores de modelo
O OpenClaw pode usar muitos provedores de LLM. Escolha um provedor, autentique-se e, em seguida, defina o modelo padrão comoprovider/model.
Procurando documentação de canais de chat (WhatsApp/Telegram/Discord/Slack/Mattermost (plugin)/etc.)? Veja Canais.
Destaque: Venice (Venice AI)
Venice é nossa configuração recomendada do Venice AI para inferência com foco em privacidade, com a opção de usar o Opus para tarefas difíceis.- Padrão:
venice/llama-3.3-70b - Melhor no geral:
venice/claude-opus-45(o Opus continua sendo o mais forte)
Início rápido
- Autentique-se com o provedor (geralmente via
openclaw onboard). - Defina o modelo padrão:
Documentação dos provedores
- OpenAI (API + Codex)
- Anthropic (API + Claude Code CLI)
- Qwen (OAuth)
- OpenRouter
- LiteLLM (gateway unificado)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI (Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- Modelos GLM
- MiniMax
- Venice (Venice AI, com foco em privacidade)
- Hugging Face (Inferência)
- Ollama (modelos locais)
- vLLM (modelos locais)
- Qianfan
- NVIDIA
Provedores de transcrição
Ferramentas da comunidade
- Claude Max API Proxy - Use a assinatura Claude Max/Pro como um endpoint de API compatível com OpenAI