Użycie tokenów i koszty
OpenClaw śledzi tokeny, a nie znaki. Tokeny są zależne od modelu, ale większość modeli w stylu OpenAI ma średnio ~4 znaki na token dla tekstu w języku angielskim.Jak budowany jest prompt systemowy
OpenClaw składa własny prompt systemowy przy każdym uruchomieniu. Zawiera on:- Listę narzędzi + krótkie opisy
- Listę Skills (tylko metadane; instrukcje są ładowane na żądanie przez
read) - Instrukcje samodzielnej aktualizacji
- Obszar roboczy + pliki startowe (
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.mdgdy są nowe). Duże pliki są obcinane przezagents.defaults.bootstrapMaxChars(domyślnie: 20000). Plikimemory/*.mdsą ładowane na żądanie przez narzędzia pamięci i nie są automatycznie dołączane. - Czas (UTC + strefa czasowa użytkownika)
- Tagi odpowiedzi + zachowanie heartbeat
- Metadane czasu wykonania (host/OS/model/thinking)
Co wlicza się do okna kontekstu
Wszystko, co otrzymuje model, wlicza się do limitu kontekstu:- Prompt systemowy (wszystkie sekcje wymienione powyżej)
- Historia rozmowy (wiadomości użytkownika + asystenta)
- Wywołania narzędzi i wyniki narzędzi
- Załączniki/transkrypcje (obrazy, audio, pliki)
- Podsumowania kompakcji i artefakty przycinania
- Opakowania dostawcy lub nagłówki bezpieczeństwa (niewidoczne, ale nadal liczone)
/context list lub /context detail. Zobacz Context.
Jak sprawdzić bieżące użycie tokenów
Użyj w czacie:/status→ karta stanu bogata w emoji z modelem sesji, użyciem kontekstu, tokenami wejścia/wyjścia ostatniej odpowiedzi oraz szacowanym kosztem (tylko klucz API)./usage off|tokens|full→ dołącza stopkę użycia na odpowiedź do każdej repliki.- Utrzymuje się per sesję (zapisywane jako
responseUsage). - Uwierzytelnianie OAuth ukrywa koszt (tylko tokeny).
- Utrzymuje się per sesję (zapisywane jako
/usage cost→ pokazuje lokalne podsumowanie kosztów z logów sesji OpenClaw.
- TUI/Web TUI: obsługiwane są
/status+/usage. - CLI:
openclaw status --usageorazopenclaw channels listpokazują okna limitów dostawcy (nie koszty per odpowiedź).
Szacowanie kosztów (gdy wyświetlane)
Koszty są szacowane na podstawie konfiguracji cen Twojego modelu:input, output, cacheRead oraz
cacheWrite. Jeśli brakuje cennika, OpenClaw pokazuje tylko tokeny. Tokeny OAuth
nigdy nie pokazują kosztu w dolarach.
TTL pamięci podręcznej i wpływ przycinania
Pamięć podręczna promptów dostawcy obowiązuje tylko w obrębie okna TTL cache. OpenClaw może opcjonalnie uruchamiać przycinanie cache-ttl: przycina sesję po wygaśnięciu TTL cache, a następnie resetuje okno cache, aby kolejne żądania mogły ponownie używać świeżo zbuforowanego kontekstu zamiast ponownego buforowania całej historii. Dzięki temu koszty zapisów do cache pozostają niższe, gdy sesja pozostaje bezczynna dłużej niż TTL. Skonfiguruj to w Gateway configuration i zobacz szczegóły zachowania w Session pruning. Heartbeat może utrzymywać cache ciepły pomiędzy okresami bezczynności. Jeśli TTL cache Twojego modelu wynosi1h, ustawienie interwału heartbeat tuż poniżej tego
(np. 55m) może zapobiec ponownemu buforowaniu pełnego promptu, redukując
koszty zapisów do cache.
W cenniku API Anthropic odczyty z cache są znacząco tańsze niż tokeny wejścia,
natomiast zapisy do cache są rozliczane z wyższym mnożnikiem. Aktualne stawki i
mnożniki TTL znajdziesz w dokumentacji Anthropic dotyczącej cache’owania promptów:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
Przykład: utrzymanie ciepłej cache przez 1 h za pomocą heartbeat
Wskazówki dotyczące redukcji presji tokenów
- Użyj
/compact, aby podsumować długie sesje. - Przycinaj duże wyniki narzędzi w swoich przepływach pracy.
- Utrzymuj krótkie opisy skills (lista skills jest wstrzykiwana do promptu).
- Preferuj mniejsze modele do rozbudowanej, eksploracyjnej pracy.