Context
“Context” is alles wat OpenClaw naar het model stuurt voor een run. Het wordt begrensd door het contextvenster van het model (tokenlimiet). Mentaal model voor beginners:- Systeemprompt (door OpenClaw opgebouwd): regels, tools, Skills-lijst, tijd/runtime en geïnjecteerde werkruimtebestanden.
- Gespreksgeschiedenis: jouw berichten + de berichten van de assistent voor deze sessie.
- Tool-aanroepen/resultaten + bijlagen: opdrachtuitvoer, bestandlezingen, afbeeldingen/audio, enz.
Snelle start (context inspecteren)
/status→ snelle weergave “hoe vol is mijn venster?” + sessie-instellingen./context list→ wat wordt geïnjecteerd + globale groottes (per bestand + totalen)./context detail→ diepere uitsplitsing: per bestand, per-tool schema-groottes, per-skill itemgroottes en grootte van de systeemprompt./usage tokens→ voeg per-antwoord een gebruiksfooter toe aan normale antwoorden./compact→ vat oudere geschiedenis samen tot een compact item om vensterruimte vrij te maken.
Voorbeelduitvoer
Waarden variëren per model, provider, toolbeleid en wat er in je werkruimte staat./context list
/context detail
Wat telt mee voor het contextvenster
Alles wat het model ontvangt telt mee, inclusief:- Systeemprompt (alle secties).
- Gespreksgeschiedenis.
- Tool-aanroepen + toolresultaten.
- Bijlagen/transcripten (afbeeldingen/audio/bestanden).
- Compactiesamenvattingen en snoei-artefacten.
- Provider-“wrappers” of verborgen headers (niet zichtbaar, tellen wel mee).
Hoe OpenClaw de systeemprompt opbouwt
De systeemprompt is eigendom van OpenClaw en wordt bij elke run opnieuw opgebouwd. Deze bevat:- Toollijst + korte beschrijvingen.
- Skills-lijst (alleen metadata; zie hieronder).
- Locatie van de werkruimte.
- Tijd (UTC + geconverteerde gebruikerstijd indien geconfigureerd).
- Runtime-metadata (host/OS/model/denken).
- Geïnjecteerde werkruimte-bootstrapsbestanden onder Project Context.
Geïnjecteerde werkruimtebestanden (Project Context)
Standaard injecteert OpenClaw een vaste set werkruimtebestanden (indien aanwezig):AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md(alleen bij eerste run)
agents.defaults.bootstrapMaxChars (standaard 20000 tekens). OpenClaw dwingt ook een totale bootstrap-injectielimiet over bestanden af met agents.defaults.bootstrapTotalMaxChars (standaard 24000 tekens). /context toont ruw vs. geïnjecteerd formaat en of afkappen heeft plaatsgevonden.
Skills: wat wordt geïnjecteerd vs. on-demand geladen
De systeemprompt bevat een compacte skills-lijst (naam + beschrijving + locatie). Deze lijst heeft reële overhead. Skill-instructies worden standaard niet opgenomen. Van het model wordt verwacht dat hetread de SKILL.md van de skill alleen wanneer nodig.
Tools: er zijn twee kosten
Tools beïnvloeden de context op twee manieren:- Toollijst-tekst in de systeemprompt (wat je ziet als “Tooling”).
- Tool-schema’s (JSON). Deze worden naar het model gestuurd zodat het tools kan aanroepen. Ze tellen mee voor de context, ook al zie je ze niet als platte tekst.
/context detail splitst de grootste tool-schema’s uit zodat je kunt zien wat domineert.
Opdrachten, directieven en “inline snelkoppelingen”
Slash-opdrachten worden door de Gateway afgehandeld. Er zijn een paar verschillende gedragingen:- Losstaande opdrachten: een bericht dat alleen
/...bevat, wordt als opdracht uitgevoerd. - Directieven:
/think,/verbose,/reasoning,/elevated,/model,/queueworden verwijderd voordat het model het bericht ziet.- Berichten die alleen uit directieven bestaan, laten sessie-instellingen voortbestaan.
- Inline directieven in een normaal bericht werken als hints per bericht.
- Inline snelkoppelingen (alleen geautoriseerde afzenders): bepaalde
/...-tokens binnen een normaal bericht kunnen direct worden uitgevoerd (voorbeeld: “hey /status”), en worden verwijderd voordat het model de resterende tekst ziet.
Sessies, compactie en snoeien (wat blijft bestaan)
Wat over berichten heen blijft bestaan, hangt af van het mechanisme:- Normale geschiedenis blijft in het sessietranscript totdat deze volgens beleid wordt gecompacteerd/gesnoeid.
- Compactie slaat een samenvatting op in het transcript en behoudt recente berichten intact.
- Snoeien verwijdert oude toolresultaten uit de in-memory prompt voor een run, maar herschrijft het transcript niet.
Wat /context daadwerkelijk rapporteert
/context verkiest het nieuwste run-opgebouwde systeemprompt-rapport wanneer beschikbaar:
System prompt (run)= vastgelegd vanuit de laatste ingebedde (tool-geschikte) run en opgeslagen in de sessie-opslag.System prompt (estimate)= on-the-fly berekend wanneer er geen run-rapport bestaat (of bij uitvoering via een CLI-backend die het rapport niet genereert).