Dostawcy modeli
Ta strona obejmuje dostawców LLM/modeli (nie kanały czatu, takie jak WhatsApp/Telegram). Zasady wyboru modeli opisano w /concepts/models.Szybkie zasady
- Odwołania do modeli używają
provider/model(przykład:opencode/claude-opus-4-6). - Jeśli ustawisz
agents.defaults.models, staje się on listą dozwolonych. - Pomocniki CLI:
openclaw onboard,openclaw models list,openclaw models set <provider/model>.
Wbudowani dostawcy (katalog pi‑ai)
OpenClaw jest dostarczany z katalogiem pi‑ai. Ci dostawcy nie wymagają konfiguracjimodels.providers; wystarczy ustawić uwierzytelnianie i wybrać model.
OpenAI
- Dostawca:
openai - Uwierzytelnianie:
OPENAI_API_KEY - Przykładowy model:
openai/gpt-5.1-codex - CLI:
openclaw onboard --auth-choice openai-api-key
Anthropic
- Dostawca:
anthropic - Uwierzytelnianie:
ANTHROPIC_API_KEYlubclaude setup-token - Przykładowy model:
anthropic/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice token(wklej setup-token) lubopenclaw models auth paste-token --provider anthropic
OpenAI Code (Codex)
- Dostawca:
openai-codex - Uwierzytelnianie: OAuth (ChatGPT)
- Przykładowy model:
openai-codex/gpt-5.3-codex - CLI:
openclaw onboard --auth-choice openai-codexlubopenclaw models auth login --provider openai-codex
OpenCode Zen
- Dostawca:
opencode - Uwierzytelnianie:
OPENCODE_API_KEY(lubOPENCODE_ZEN_API_KEY) - Przykładowy model:
opencode/claude-opus-4-6 - CLI:
openclaw onboard --auth-choice opencode-zen
Google Gemini (klucz API)
- Dostawca:
google - Uwierzytelnianie:
GEMINI_API_KEY - Przykładowy model:
google/gemini-3-pro-preview - CLI:
openclaw onboard --auth-choice gemini-api-key
Google Vertex, Antigravity i Gemini CLI
- Dostawcy:
google-vertex,google-antigravity,google-gemini-cli - Uwierzytelnianie: Vertex używa gcloud ADC; Antigravity/Gemini CLI używają własnych przepływów uwierzytelniania
- OAuth Antigravity jest dostarczany jako dołączona wtyczka (
google-antigravity-auth, domyślnie wyłączona).- Włącz:
openclaw plugins enable google-antigravity-auth - Logowanie:
openclaw models auth login --provider google-antigravity --set-default
- Włącz:
- OAuth Gemini CLI jest dostarczany jako dołączona wtyczka (
google-gemini-cli-auth, domyślnie wyłączona).- Włącz:
openclaw plugins enable google-gemini-cli-auth - Logowanie:
openclaw models auth login --provider google-gemini-cli --set-default - Uwaga: nie wkleja się identyfikatora klienta ani sekretu do
openclaw.json. Przepływ logowania CLI zapisuje tokeny w profilach uwierzytelniania na hoście Gateway.
- Włącz:
Z.AI (GLM)
- Dostawca:
zai - Uwierzytelnianie:
ZAI_API_KEY - Przykładowy model:
zai/glm-4.7 - CLI:
openclaw onboard --auth-choice zai-api-key- Aliasy:
z.ai/*iz-ai/*normalizują się dozai/*
- Aliasy:
Vercel AI Gateway
- Dostawca:
vercel-ai-gateway - Uwierzytelnianie:
AI_GATEWAY_API_KEY - Przykładowy model:
vercel-ai-gateway/anthropic/claude-opus-4.6 - CLI:
openclaw onboard --auth-choice ai-gateway-api-key
Inni wbudowani dostawcy
- OpenRouter:
openrouter(OPENROUTER_API_KEY) - Przykładowy model:
openrouter/anthropic/claude-sonnet-4-5 - xAI:
xai(XAI_API_KEY) - Groq:
groq(GROQ_API_KEY) - Cerebras:
cerebras(CEREBRAS_API_KEY)- Modele GLM na Cerebras używają identyfikatorów
zai-glm-4.7orazzai-glm-4.6. - Bazowy URL zgodny z OpenAI:
https://api.cerebras.ai/v1.
- Modele GLM na Cerebras używają identyfikatorów
- Mistral:
mistral(MISTRAL_API_KEY) - GitHub Copilot:
github-copilot(COPILOT_GITHUB_TOKEN/GH_TOKEN/GITHUB_TOKEN) - Hugging Face Inference:
huggingface(HUGGINGFACE_HUB_TOKENlubHF_TOKEN) — router zgodny z OpenAI; przykładowy model:huggingface/deepseek-ai/DeepSeek-R1; CLI:openclaw onboard --auth-choice huggingface-api-key. Zobacz Hugging Face (Inference).
Dostawcy przez models.providers (niestandardowy/bazowy URL)
Użyj models.providers (lub models.json), aby dodać niestandardowych dostawców lub
proxy zgodne z OpenAI/Anthropic.
Moonshot AI (Kimi)
Moonshot korzysta z endpointów zgodnych z OpenAI, dlatego skonfiguruj go jako dostawcę niestandardowego:- Dostawca:
moonshot - Uwierzytelnianie:
MOONSHOT_API_KEY - Przykładowy model:
moonshot/kimi-k2.5
moonshot/kimi-k2.5moonshot/kimi-k2-0905-previewmoonshot/kimi-k2-turbo-previewmoonshot/kimi-k2-thinkingmoonshot/kimi-k2-thinking-turbo
Kimi Coding
Kimi Coding korzysta z endpointu Moonshot AI zgodnego z Anthropic:- Dostawca:
kimi-coding - Uwierzytelnianie:
KIMI_API_KEY - Przykładowy model:
kimi-coding/k2p5
Qwen OAuth (warstwa bezpłatna)
Qwen zapewnia dostęp OAuth do Qwen Coder + Vision poprzez przepływ device‑code. Włącz dołączoną wtyczkę, a następnie zaloguj się:qwen-portal/coder-modelqwen-portal/vision-model
Synthetic
Synthetic udostępnia modele zgodne z Anthropic za pośrednictwem dostawcysynthetic:
- Dostawca:
synthetic - Uwierzytelnianie:
SYNTHETIC_API_KEY - Przykładowy model:
synthetic/hf:MiniMaxAI/MiniMax-M2.1 - CLI:
openclaw onboard --auth-choice synthetic-api-key
MiniMax
MiniMax jest konfigurowany przezmodels.providers, ponieważ używa niestandardowych endpointów:
- MiniMax (zgodny z Anthropic):
--auth-choice minimax-api - Uwierzytelnianie:
MINIMAX_API_KEY
Ollama
Ollama to lokalne środowisko uruchomieniowe LLM, które udostępnia API zgodne z OpenAI:- Dostawca:
ollama - Uwierzytelnianie: brak (serwer lokalny)
- Przykładowy model:
ollama/llama3.3 - Instalacja: https://ollama.ai
http://127.0.0.1:11434/v1. Zalecenia dotyczące modeli i konfigurację niestandardową znajdziesz w /providers/ollama.
vLLM
vLLM to lokalny (lub hostowany samodzielnie) serwer zgodny z OpenAI:- Dostawca:
vllm - Uwierzytelnianie: opcjonalne (zależne od Twojego serwera)
- Domyślny base URL:
http://127.0.0.1:8000/v1
/v1/models):
Lokalne proxy (LM Studio, vLLM, LiteLLM itd.)
Przykład (zgodny z OpenAI):- Dla dostawców niestandardowych pola
reasoning,input,cost,contextWindoworazmaxTokenssą opcjonalne. Gdy zostaną pominięte, OpenClaw domyślnie ustawia:reasoning: falseinput: ["text"]cost: { input: 0, output: 0, cacheRead: 0, cacheWrite: 0 }contextWindow: 200000maxTokens: 8192
- Zalecane: ustaw jawne wartości odpowiadające limitom Twojego proxy/modelu.