Tokenanvändning och kostnader
OpenClaw spår tokens, inte tecken. Tokens är modellspecifika, men de flesta OpenAI-stil modeller genomsnitt ~4 tecken per token för engelsk text.Hur systemprompten byggs
OpenClaw sammanställer sin egen systemprompt på varje körning. Den inkluderar:- Verktygslista + korta beskrivningar
- Skills-lista (endast metadata; instruktioner laddas vid behov med
read) - Självuppdateringsinstruktioner
- Workspace- och bootstrap-filer (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdnär ny, samtMEMORY.mdoch/ellermemory.mdnär de finns). Stora filer trunkeras avagents.defaults.bootstrapMaxChars(standard: 20000), och den totala bootstrap-injektionen begränsas avagents.defaults.bootstrapTotalMaxChars(standard: 24000).memory/*.md-filer laddas vid behov via minnesverktyg och injiceras inte automatiskt. - Tid (UTC + användarens tidszon)
- Svarstaggar + heartbeat-beteende
- Körtidsmetadata (värd/OS/modell/tänkande)
Vad som räknas i kontextfönstret
Allt som modellen tar emot räknas mot kontextgränsen:- Systemprompt (alla avsnitt listade ovan)
- Konversationshistorik (användar- + assistentmeddelanden)
- Verktygsanrop och verktygsresultat
- Bilagor/transkript (bilder, ljud, filer)
- Sammanfattningar från kompaktering och artefakter från rensning
- Leverantörsomslag eller säkerhetsrubriker (inte synliga, men räknas ändå)
/context list eller /context detail. Se Context.
Hur du ser aktuell tokenanvändning
Använd dessa i chatten:/status→ emoji‑rik statuskort med sessionsmodell, kontextanvändning, senaste svarets in-/ut-token och uppskattad kostnad (endast API‑nyckel)./usage off|tokens|full→ lägger till en användningsfotnot per svar till varje svar.- Består per session (lagras som
responseUsage). - OAuth‑autentisering döljer kostnad (endast tokens).
- Består per session (lagras som
/usage cost→ visar en lokal kostnadssammanfattning från OpenClaws sessionsloggar.
- TUI/Web TUI:
/status+/usagestöds. - CLI:
openclaw status --usageochopenclaw channels listvisar leverantörers kvotfönster (inte kostnader per svar).
Kostnadsuppskattning (när den visas)
Kostnader uppskattas från din modellprissättningskonfig:input, output, cacheRead och
cacheWrite. Om prissättningen saknas, visar OpenClaw endast tokens OAuth tokens
visar aldrig dollarkostnaden.
Cache-TTL och påverkan av rensning
Leverantörsprompten om cachelagring gäller endast i cachens TTL-fönster. OpenClaw kan valfritt köra cache-ttl beskärning: det beskär sessionen när cachen TTL har löpt ut, återställer sedan cachefönstret så att efterföljande förfrågningar kan återanvända nyligen cachade sammanhang istället för att åter cacha hela historiken. Detta håller cache skriva kostnader lägre när en session går vilande förbi TTL. Konfigurera detta i Gateway-konfiguration och se beteendedetaljerna i Session pruning. Heartbeat kan hålla cachen varm över tomgångar. Om din modellcache TTL är1h, sätt hjärtslagsintervallet precis under det (e. ., ‘55m’) kan undvika att
cachelagrar om den fulla snabbheten, vilket minskar kostnaderna för cachelagring.
För antropisk API-prissättning är cache-läsningar betydligt billigare än inmatning
-tokens, medan cacheskrivningar faktureras med en högre multiplikator. Se Anthropic’s
prompt caching prissättning för de senaste priserna och TTL-multiplikatorer:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Exempel: håll 1 h cache varm med heartbeat
Tips för att minska tokenbelastning
- Använd
/compactför att sammanfatta långa sessioner. - Trimma stora verktygsutdata i dina arbetsflöden.
- Håll skill‑beskrivningar korta (skill‑listan injiceras i prompten).
- Föredra mindre modeller för utforskande arbete med mycket text.