トークン使用量 & コスト
OpenClawは文字ではなくトークンを追跡します。 OpenClawは文字ではなくトークンを追跡します。 トークンはモデル固有ですが、ほとんどの OpenAIスタイルのモデルは、英語のテキストのトークンあたり平均4文字です。システムプロンプトの構築方法
OpenClaw は実行のたびに独自のシステムプロンプトを組み立てます。これには次が含まれます。 これには以下が含まれます: これには以下が含まれます:- ツール一覧 + 短い説明
- Skills 一覧(メタデータのみ。指示は
readによりオンデマンドで読み込まれます) - 自己更新の指示
- ワークスペース + ブートストラップファイル(新規時は
AGENTS.md,SOUL.md,TOOLS.md,IDENTITY.md,USER.md,HEARTBEAT.md,BOOTSTRAP.md)。大きなファイルはagents.defaults.bootstrapMaxCharsにより切り詰められます(デフォルト: 20000)。 大きなファイルはagents.defaults.bootstrapMaxCharsで切り捨てられます (デフォルト: 20000)。 大きなファイルはagents.defaults.bootstrapMaxChars(既定: 20000)で切り詰められ、ブートストラップ全体の挿入はagents.defaults.bootstrapTotalMaxChars(既定: 24000)で上限が設定されます。memory/*.mdファイルはメモリツール経由でオンデマンドに読み込まれ、自動挿入はされません。 - 時刻(UTC + ユーザーのタイムゾーン)
- 返信タグ + ハートビートの挙動
- ランタイムのメタデータ(ホスト / OS / モデル / 思考)
コンテキストウィンドウに含まれるもの
モデルが受信するすべての内容がコンテキスト上限にカウントされます。- システムプロンプト(上記のすべてのセクション)
- 会話履歴(ユーザー + アシスタントのメッセージ)
- ツール呼び出しとツール結果
- 添付 / 文字起こし(画像、音声、ファイル)
- 要約と剪定アーティファクトをコンパクトにする
- プロバイダーのラッパーや安全性ヘッダー(表示されませんが、カウントされます)
/context list または /context detail を使用してください。 Context も参照してください。 Context を参照してください。 Context を参照してください。
現在のトークン使用量を確認する方法
チャット内で次を使用します。/status→ セッションのモデル、コンテキスト使用量、直前の応答の入出力トークン、推定コスト(API キーのみ)を表示する 絵文字が豊富なステータスカード。/usage off|tokens|full→ すべての返信に 応答ごとの使用量フッター を追加します。- セッションごとに永続化されます(
responseUsageとして保存)。 - OAuth 認証では コストは非表示(トークンのみ)です。
- セッションごとに永続化されます(
/usage cost→ OpenClaw のセッションログからローカルのコスト要約を表示します。
- TUI / Web TUI:
/status+/usageがサポートされています。 - CLI:
openclaw status --usageとopenclaw channels listは、プロバイダーのクォータウィンドウ(応答ごとのコストではありません)を表示します。
コスト見積もり(表示される場合)
コストはモデルの価格設定 Config から見積もられます。input、output、cacheRead、および
cacheWriteに対する1MトークンあたりのUSDです。 価格が不足している場合、OpenClawはトークンのみを表示します。 OAuth トークン
ドルのコストを表示することはありません。
キャッシュ TTL とプルーニングの影響
プロバイダプロンプトのキャッシュは、キャッシュ TTL ウィンドウ内でのみ適用されます。 プロバイダーのプロンプトキャッシュは、キャッシュ TTL のウィンドウ内でのみ適用されます。OpenClaw は任意で cache-ttl プルーニング を実行できます。これは、キャッシュ TTL が期限切れになったらセッションをプルーニングし、その後キャッシュウィンドウをリセットして、以降のリクエストでフル履歴を再キャッシュする代わりに、最新のキャッシュ済みコンテキストを再利用できるようにします。これにより、セッションが TTL を超えてアイドル状態になった場合でも、キャッシュ書き込みコストを低く抑えられます。 これにより、セッションがTTLを超えてアイドル状態になると、キャッシュ 書き込みコストが低くなります。 設定は Gateway configuration で行い、挙動の詳細は Session pruning を参照してください。 Heartbeatは、キャッシュをアイドル状態の隙間を超えてwarm保つことができます。 Heartbeatは、キャッシュをアイドル状態の隙間を超えてwarm保つことができます。 ハートビートは、アイドルの間もキャッシュを ウォーム に保つことができます。モデルのキャッシュ TTL が1h の場合、ハートビート間隔をそれより少し短く(例: 55m)設定すると、フルプロンプトの再キャッシュを回避でき、キャッシュ書き込みコストを削減できます。
Anthropic API の価格設定では、キャッシュの読み取りは入力の
トークンよりも大幅に安くなり、キャッシュの書き込みはより高い乗数で請求されます。 Anthropic API の価格設定では、キャッシュの読み取りは入力の
トークンよりも大幅に安くなり、キャッシュの書き込みはより高い乗数で請求されます。 Anthropic API の価格設定では、キャッシュの読み取りは入力トークンより大幅に安価で、キャッシュの書き込みはより高い乗数で課金されます。最新のレートと TTL 乗数については、Anthropic のプロンプトキャッシュ価格設定を参照してください:
https://docs.anthropic.com/docs/build-with-claude/prompt-caching
例: ハートビートで 1 時間のキャッシュをウォームに保つ
トークン圧迫を減らすためのヒント
- 長いセッションを要約するには
/compactを使用します。 - ワークフロー内で大きなツール出力をトリミングします。
- Skills の説明は短く保ちます(Skills 一覧はプロンプトに注入されます)。
- 冗長で探索的な作業には、より小さなモデルを優先します。