モデルプロバイダー
OpenClaw は多数の LLM プロバイダーを利用できます。1 つ選択して認証し、既定の モデルをprovider/model として設定します。 1つの認証を選択し、デフォルトの
モデルをprovider/modelに設定します。
ハイライト: Venice(Venice AI)
Venice は、プライバシー重視の推論を実現するために推奨している Venice AI のセットアップです。最も難しいタスクには Opus を使用するオプションがあります。- 既定:
venice/llama-3.3-70b - 総合的に最良:
venice/claude-opus-45(Opus は依然として最強です)
クイックスタート(2 ステップ)
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - 既定のモデルを設定します:
サポートされているプロバイダー(スターターセット)
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- OpenRouter
- Vercel AI Gateway
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- Synthetic
- OpenCode Zen
- Z.AI
- GLM models
- MiniMax
- Venice(Venice AI)
- Amazon Bedrock
- Qianfan