Kontext
„Kontext“ ist alles, was OpenClaw für einen Lauf an das Modell sendet. Er ist durch das Kontextfenster des Modells (Token-Limit) begrenzt. Mentales Modell für Einsteiger:- System-Prompt (von OpenClaw erstellt): Regeln, Werkzeuge, Skills-Liste, Zeit/Laufzeit und injizierte Workspace-Dateien.
- Gesprächsverlauf: Ihre Nachrichten + die Nachrichten des Assistenten für diese Sitzung.
- Werkzeugaufrufe/-ergebnisse + Anhänge: Befehlsausgaben, Dateizugriffe, Bilder/Audio usw.
Schnellstart (Kontext prüfen)
/status→ schnelle Ansicht „wie voll ist mein Fenster?“ + Sitzungseinstellungen./context list→ was injiziert wird + grobe Größen (pro Datei + Summen)./context detail→ detaillierte Aufschlüsselung: pro Datei, pro Werkzeug-Schema, pro Skill-Eintrag und Größe des System-Prompts./usage tokens→ hängt an normale Antworten eine Nutzungs-Fußzeile pro Antwort an./compact→ fasst ältere Historie zu einem kompakten Eintrag zusammen, um Platz im Fenster freizugeben.
Beispielausgabe
Werte variieren je nach Modell, Anbieter, Werkzeugrichtlinie und dem Inhalt Ihres Workspace./context list
/context detail
Was zum Kontextfenster zählt
Alles, was das Modell erhält, zählt dazu, einschließlich:- System-Prompt (alle Abschnitte).
- Gesprächsverlauf.
- Werkzeugaufrufe + Werkzeugergebnisse.
- Anhänge/Transkripte (Bilder/Audio/Dateien).
- Kompaktionszusammenfassungen und Pruning-Artefakte.
- Anbieter-„Wrapper“ oder versteckte Header (nicht sichtbar, zählen trotzdem).
Wie OpenClaw den System-Prompt erstellt
Der System-Prompt gehört OpenClaw und wird bei jedem Lauf neu aufgebaut. Er umfasst:- Werkzeugliste + kurze Beschreibungen.
- Skills-Liste (nur Metadaten; siehe unten).
- Workspace-Speicherort.
- Zeit (UTC + konvertierte Benutzerzeit, falls konfiguriert).
- Laufzeit-Metadaten (Host/OS/Modell/Thinking).
- Injizierte Workspace-Bootstrap-Dateien unter Project Context.
Injizierte Workspace-Dateien (Project Context)
Standardmäßig injiziert OpenClaw einen festen Satz an Workspace-Dateien (falls vorhanden):AGENTS.mdSOUL.mdTOOLS.mdIDENTITY.mdUSER.mdHEARTBEAT.mdBOOTSTRAP.md(nur beim ersten Lauf)
agents.defaults.bootstrapMaxChars gekürzt (Standard 20000 Zeichen). OpenClaw erzwingt außerdem eine Gesamtobergrenze für Bootstrap-Injections über alle Dateien hinweg mit agents.defaults.bootstrapTotalMaxChars (Standard 24000 Zeichen). /context zeigt Roh- vs. injizierte Größen und ob eine Kürzung stattgefunden hat.
Skills: was injiziert wird vs. bedarfsweise geladen
Der System-Prompt enthält eine kompakte Skills-Liste (Name + Beschreibung + Speicherort). Diese Liste verursacht realen Overhead. Skill-Anweisungen sind standardmäßig nicht enthalten. Vom Modell wird erwartet, dass esread die SKILL.md des Skills nur bei Bedarf.
Werkzeuge: es gibt zwei Kosten
Werkzeuge beeinflussen den Kontext auf zwei Arten:- Werkzeuglisten-Text im System-Prompt (das, was Sie als „Tooling“ sehen).
- Werkzeug-Schemas (JSON). Diese werden an das Modell gesendet, damit es Werkzeuge aufrufen kann. Sie zählen zum Kontext, auch wenn Sie sie nicht als Klartext sehen.
/context detail schlüsselt die größten Werkzeug-Schemas auf, damit Sie sehen können, was dominiert.
Befehle, Direktiven und „Inline-Shortcuts“
Slash-Befehle werden vom Gateway verarbeitet. Es gibt einige unterschiedliche Verhaltensweisen:- Eigenständige Befehle: Eine Nachricht, die nur
/...ist, wird als Befehl ausgeführt. - Direktiven:
/think,/verbose,/reasoning,/elevated,/model,/queuewerden entfernt, bevor das Modell die Nachricht sieht.- Nachrichten, die nur aus Direktiven bestehen, speichern Sitzungseinstellungen.
- Inline-Direktiven in einer normalen Nachricht wirken als Hinweise pro Nachricht.
- Inline-Shortcuts (nur Allowlist-Absender): Bestimmte
/...-Tokens innerhalb einer normalen Nachricht können sofort ausgeführt werden (Beispiel: „hey /status“) und werden entfernt, bevor das Modell den verbleibenden Text sieht.
Sitzungen, Kompaktierung und Pruning (was bestehen bleibt)
Was über Nachrichten hinweg bestehen bleibt, hängt vom Mechanismus ab:- Normaler Verlauf bleibt im Sitzungsprotokoll, bis er durch Richtlinien kompaktierte/geschnitten wird.
- Kompaktierung speichert eine Zusammenfassung im Protokoll und lässt aktuelle Nachrichten intakt.
- Pruning entfernt alte Werkzeugergebnisse aus dem in-memory-Prompt für einen Lauf, schreibt das Protokoll jedoch nicht um.
Was /context tatsächlich meldet
/context bevorzugt den neuesten run-built System-Prompt-Bericht, sofern verfügbar:
System prompt (run)= aus dem letzten eingebetteten (werkzeugfähigen) Lauf erfasst und im Sitzungsspeicher persistiert.System prompt (estimate)= ad hoc berechnet, wenn kein Laufbericht existiert (oder bei Ausführung über ein CLI-Backend, das keinen Bericht erzeugt).