モデルプロバイダー
OpenClaw は多くの LLM プロバイダーを使用できます。プロバイダーを選択して認証し、既定のモデルをprovider/model として設定してください。 プロバイダを選択し、認証し、
デフォルトモデルをprovider/modelに設定します。 プロバイダを選択し、認証し、
デフォルトモデルをprovider/modelに設定します。
チャットチャンネルのドキュメント(WhatsApp/Telegram/Discord/Slack/Mattermost(プラグイン)/など)をお探しですか? Channels を参照してください。 Channels を参照してください。 Channels を参照してください。
ハイライト:Venice(Venice AI)
Venice は、プライバシー重視の推論向けに推奨している Venice AI のセットアップです。難易度の高いタスクでは Opus を使用する選択肢があります。- 既定:
venice/llama-3.3-70b - 総合的に最良:
venice/claude-opus-45(Opus は依然として最も強力です)
クイックスタート
- プロバイダーで認証します(通常は
openclaw onboardを使用します)。 - 既定のモデルを設定します:
プロバイダードキュメント
- OpenAI(API + Codex)
- Anthropic(API + Claude Code CLI)
- Qwen(OAuth)
- OpenRouter
- LiteLLM (unified gateway)
- Vercel AI Gateway
- Together AI
- Cloudflare AI Gateway
- Moonshot AI(Kimi + Kimi Coding)
- OpenCode Zen
- Amazon Bedrock
- Z.AI
- Xiaomi
- GLM models
- MiniMax
- Venice(Venice AI、プライバシー重視)
- Hugging Face (Inference)
- Ollama(ローカルモデル)
- 完全なプロバイダカタログ(xAI、Groq、Mistralなど) そして、高度な構成、 Model providersを参照してください。
- Qianfan
- NVIDIA
文字起こしプロバイダー
コミュニティツール
- Claude Max API Proxy - Claude Max/Pro サブスクリプションを OpenAI 互換の API エンドポイントとして使用します