Tokengebruik & kosten
OpenClaw houdt tokens bij, geen tekens. Tokens zijn modelspecifiek, maar de meeste OpenAI-achtige modellen komen gemiddeld uit op ~4 tekens per token voor Engelse tekst.Hoe de system prompt wordt opgebouwd
OpenClaw stelt bij elke run zijn eigen system prompt samen. Deze bevat:- Toollijst + korte beschrijvingen
- Skills-lijst (alleen metadata; instructies worden on demand geladen met
read) - Zelfupdate-instructies
- Werkruimte + bootstrapbestanden (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdwanneer nieuw). Grote bestanden worden afgekapt dooragents.defaults.bootstrapMaxChars(standaard: 20000).memory/*.md-bestanden zijn op aanvraag beschikbaar via memory tools en worden niet automatisch geïnjecteerd. - Tijd (UTC + tijdzone van de gebruiker)
- Antwoordtags + heartbeat-gedrag
- Runtime-metadata (host/OS/model/thinking)
Wat meetelt in het contextvenster
Alles wat het model ontvangt telt mee voor de contextlimiet:- System prompt (alle hierboven vermelde secties)
- Gespreksgeschiedenis (berichten van gebruiker + assistent)
- Tool-aanroepen en toolresultaten
- Bijlagen/transcripten (afbeeldingen, audio, bestanden)
- Compactiesamenvattingen en pruning-artefacten
- Provider-wrappers of veiligheidsheaders (niet zichtbaar, maar wel meegeteld)
/context list of /context detail. Zie Context.
Hoe je het huidige tokengebruik ziet
Gebruik deze in de chat:/status→ emoji‑rijke statuskaart met het sessiemodel, contextgebruik, input-/outputtokens van het laatste antwoord en geschatte kosten (alleen API-sleutel)./usage off|tokens|full→ voegt een per-antwoord gebruiksfooter toe aan elk antwoord.- Blijft per sessie behouden (opgeslagen als
responseUsage). - OAuth-authenticatie verbergt kosten (alleen tokens).
- Blijft per sessie behouden (opgeslagen als
/usage cost→ toont een lokaal kostenoverzicht uit OpenClaw-sessielogs.
- TUI/Web TUI:
/status+/usageworden ondersteund. - CLI:
openclaw status --usageenopenclaw channels listtonen provider-quotavensters (geen kosten per antwoord).
Kostenraming (wanneer getoond)
Kosten worden geschat op basis van je modelprijsconfiguratie:input, output, cacheRead en
cacheWrite. Als prijzen ontbreken, toont OpenClaw alleen tokens. OAuth-tokens
tonen nooit dollarkosten.
Cache-TTL en impact van pruning
Provider-promptcaching is alleen van toepassing binnen het cache-TTL-venster. OpenClaw kan optioneel cache-ttl-pruning uitvoeren: het prunt de sessie zodra de cache-TTL is verlopen en reset daarna het cachevenster zodat volgende verzoeken de vers gecachte context opnieuw kunnen gebruiken in plaats van de volledige geschiedenis opnieuw te cachen. Dit houdt cache-schrijvingskosten lager wanneer een sessie langer dan de TTL inactief is. Configureer dit in Gateway configuration en bekijk de gedragsdetails in Session pruning. Heartbeat kan de cache warm houden over inactieve perioden heen. Als de cache-TTL van je model1h is, kan het instellen van het heartbeat-interval net
daaronder (bijv. 55m) voorkomen dat de volledige prompt opnieuw moet
worden gecachet, wat cache-schrijvingskosten vermindert.
Voor Anthropic API-prijzen zijn cachereads aanzienlijk goedkoper dan inputtokens,
terwijl cachewrites tegen een hogere vermenigvuldiger worden gefactureerd. Zie
Anthropic’s promptcaching-prijzen voor de nieuwste tarieven en TTL-vermenigvuldigers:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Voorbeeld: 1u cache warm houden met heartbeat
Tips om tokendruk te verminderen
- Gebruik
/compactom lange sessies samen te vatten. - Trim grote tooluitvoer in je workflows.
- Houd skillbeschrijvingen kort (de skills-lijst wordt in de prompt geïnjecteerd).
- Geef de voorkeur aan kleinere modellen voor uitgebreide, verkennende werkzaamheden.