模型提供者
OpenClaw can use many LLM providers. Pick a provider, authenticate, then set the default model asprovider/model.
在找聊天頻道文件(WhatsApp/Telegram/Discord/Slack/Mattermost(外掛)/等)嗎?請參閱 頻道。 See Channels. See Channels.
重點推薦:Venice(Venice AI)
Venice 是我們推薦的 Venice AI 設定,提供以隱私優先的推論,並可選擇在高難度任務中使用 Opus。- 預設:
venice/llama-3.3-70b - 整體最佳:
venice/claude-opus-45(Opus 仍然最強)
快速開始
- 使用提供者完成身分驗證(通常透過
openclaw onboard)。 - 設定預設模型:
提供者文件
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM 模型
- MiniMax
- Venice(Venice AI,隱私導向)
- Hugging Face (Inference)
- Ollama(本地模型)
- OpenClaw 可以使用許多 LLM 供應商。選擇一個供應商,完成驗證,然後設定
default model as
provider/model. - Qianfan
- NVIDIA
轉錄提供者
社群工具
- Claude Max API Proxy - 將 Claude Max/Pro 訂閱作為相容 OpenAI 的 API 端點使用