Memory
OpenClaw मेमोरी एजेंट वर्कस्पेस में साधारण Markdown होती है। फ़ाइलें ही सत्य का स्रोत हैं; मॉडल केवल वही “याद” रखता है जो डिस्क पर लिखा जाता है। मेमोरी सर्च टूल्स सक्रिय मेमोरी प्लगइन द्वारा प्रदान किए जाते हैं (डिफ़ॉल्ट:memory-core)। plugins.slots.memory = "none" के साथ मेमोरी प्लगइन्स अक्षम करें।
Memory files (Markdown)
डिफ़ॉल्ट वर्कस्पेस लेआउट दो मेमोरी लेयर्स का उपयोग करता है:memory/YYYY-MM-DD.md- दैनिक लॉग (केवल जोड़ने योग्य)।
- सत्र प्रारंभ पर आज + कल पढ़ता है।
MEMORY.md(वैकल्पिक)- क्यूरेटेड दीर्घकालिक मेमोरी।
- केवल मुख्य, निजी सत्र में लोड करें (समूह संदर्भों में कभी नहीं)।
agents.defaults.workspace, डिफ़ॉल्ट
~/.openclaw/workspace)। पूर्ण लेआउट के लिए Agent workspace देखें।
When to write memory
- निर्णय, प्राथमिकताएँ, और स्थायी तथ्य
MEMORY.mdमें जाएँ। - रोज़मर्रा के नोट्स और चल रहा संदर्भ
memory/YYYY-MM-DD.mdमें जाएँ। - यदि कोई कहता है “इसे याद रखो,” तो इसे लिख दें (RAM में न रखें)।
- यह क्षेत्र अभी विकसित हो रहा है। मॉडल को मेमोरी स्टोर करने की याद दिलाना मददगार होता है; वह जानता है कि क्या करना है।
- यदि आप चाहते हैं कि कुछ टिके, बॉट से उसे मेमोरी में लिखने को कहें।
Automatic memory flush (pre-compaction ping)
जब कोई सेशन ऑटो-कम्पैक्शन के क़रीब होता है, OpenClaw एक साइलेंट, एजेंटिक टर्न ट्रिगर करता है जो मॉडल को संदर्भ कम्पैक्ट होने से पहले स्थायी मेमोरी लिखने की याद दिलाता है। डिफ़ॉल्ट प्रॉम्प्ट्स स्पष्ट रूप से कहते हैं कि मॉडल may reply, लेकिन आमतौर परNO_REPLY ही सही प्रतिक्रिया होती है ताकि उपयोगकर्ता को यह टर्न कभी दिखाई न दे।
इसे agents.defaults.compaction.memoryFlush द्वारा नियंत्रित किया जाता है:
- Soft threshold: फ़्लश तब ट्रिगर होता है जब सत्र टोकन अनुमान
contextWindow - reserveTokensFloor - softThresholdTokensको पार करता है। - डिफ़ॉल्ट रूप से मौन: प्रॉम्प्ट में
NO_REPLYशामिल होता है ताकि कुछ भी डिलीवर न हो। - दो प्रॉम्प्ट: एक उपयोगकर्ता प्रॉम्प्ट और एक सिस्टम प्रॉम्प्ट रिमाइंडर जोड़ते हैं।
- प्रति कम्पैक्शन चक्र एक फ़्लश (
sessions.jsonमें ट्रैक किया गया)। - वर्कस्पेस लिखने योग्य होना चाहिए: यदि सत्र sandboxed में
workspaceAccess: "ro"या"none"के साथ चलता है, तो फ़्लश छोड़ दिया जाता है।
Vector memory search
OpenClawMEMORY.md और memory/*.md पर एक छोटा वेक्टर इंडेक्स बना सकता है ताकि
शब्दावली अलग होने पर भी सेमांटिक क्वेरी संबंधित नोट्स खोज सकें।
डिफ़ॉल्ट्स:
- डिफ़ॉल्ट रूप से सक्षम।
- मेमोरी फ़ाइलों में बदलावों पर नज़र रखता है (debounced)।
- डिफ़ॉल्ट रूप से रिमोट एम्बेडिंग्स का उपयोग करता है। यदि
memorySearch.providerसेट नहीं है, तो OpenClaw स्वतः चयन करता है: - डिफ़ॉल्ट रूप से रिमोट एम्बेडिंग्स का उपयोग करता है। यदि
memorySearch.providerसेट नहीं है, तो OpenClaw स्वतः चयन करता है:localयदिmemorySearch.local.modelPathकॉन्फ़िगर है और फ़ाइल मौजूद है।openaiयदि OpenAI कुंजी सुलझाई जा सकती है।geminiयदि Gemini कुंजी सुलझाई जा सकती है।voyageयदि Voyage कुंजी सुलझाई जा सकती है।- अन्यथा, कॉन्फ़िगर होने तक मेमोरी खोज अक्षम रहती है।
- SQLite के भीतर वेक्टर खोज को तेज़ करने के लिए sqlite-vec (उपलब्ध होने पर) का उपयोग करता है।
- SQLite के भीतर वेक्टर खोज को तेज़ करने के लिए sqlite-vec (उपलब्ध होने पर) का उपयोग करता है।
models.providers.*.apiKey, या एनवायरनमेंट
वेरिएबल्स से कीज़ रेज़ॉल्व करता है। Codex OAuth केवल चैट/कम्प्लीशन्स को कवर करता है और मेमोरी सर्च के लिए एम्बेडिंग्स को पूरा नहीं करता। Gemini के लिए GEMINI_API_KEY या
models.providers.google.apiKey का उपयोग करें। Voyage के लिए VOYAGE_API_KEY या
models.providers.voyage.apiKey का उपयोग करें। कस्टम OpenAI-कम्पैटिबल एंडपॉइंट का उपयोग करते समय,
memorySearch.remote.apiKey (और वैकल्पिक memorySearch.remote.headers) सेट करें।
QMD backend (experimental)
बिल्ट-इन SQLite इंडेक्सर को बदलकर QMD उपयोग करने के लिएmemory.backend = "qmd" सेट करें: एक लोकल-फ़र्स्ट सर्च साइडकार जो
BM25 + वेक्टर्स + री-रैंकिंग को जोड़ता है। Markdown सत्य का स्रोत बना रहता है; रिट्रीवल के लिए OpenClaw QMD को शेल आउट करता है। मुख्य बिंदु:
Prereqs
- डिफ़ॉल्ट रूप से अक्षम। प्रति-कॉन्फ़िग ऑप्ट-इन (
memory.backend = "qmd")। - QMD CLI अलग से इंस्टॉल करें (
bun install -g https://github.com/tobi/qmdया कोई रिलीज़ लें) और सुनिश्चित करें किqmdबाइनरी Gateway केPATHपर है। - QMD को ऐसे SQLite बिल्ड की आवश्यकता है जो एक्सटेंशन्स की अनुमति देता हो (
brew install sqliteon macOS)। - QMD Bun +
node-llama-cppके माध्यम से पूरी तरह लोकल चलता है और पहली उपयोग पर HuggingFace से GGUF मॉडल ऑटो-डाउनलोड करता है (अलग Ollama डेमन आवश्यक नहीं)। - Gateway, QMD को एक self-contained XDG होम में
~/.openclaw/agents/<agentId>/qmd/के तहत चलाता है, इसके लिएXDG_CONFIG_HOMEऔरXDG_CACHE_HOMEसेट करता है। - OS support: macOS and Linux work out of the box once Bun + SQLite are installed. Windows को WSL2 के माध्यम से सबसे बेहतर सपोर्ट मिलता है।
- Gateway एक self-contained QMD होम
~/.openclaw/agents/<agentId>/qmd/के तहत लिखता है (config + cache + sqlite DB)। - कलेक्शन्स
qmd collection addके माध्यम सेmemory.qmd.paths(और डिफ़ॉल्ट वर्कस्पेस मेमोरी फ़ाइलें) से बनाई जाती हैं, फिरqmd update+qmd embedबूट पर और एक कॉन्फ़िगर योग्य अंतराल पर (memory.qmd.update.interval, डिफ़ॉल्ट 5 m) चलते हैं। - बूट रिफ़्रेश अब डिफ़ॉल्ट रूप से बैकग्राउंड में चलता है ताकि चैट स्टार्टअप ब्लॉक न हो; पिछले
ब्लॉकिंग व्यवहार को बनाए रखने के लिए
memory.qmd.update.waitForBootSync = trueसेट करें। - सर्च
qmd query --jsonके माध्यम से चलती हैं। यदि QMD विफल हो जाए या बाइनरी गायब हो, OpenClaw स्वतः बिल्ट-इन SQLite मैनेजर पर फ़ॉलबैक कर देता है ताकि मेमोरी टूल्स काम करते रहें। - खोजें
memory.qmd.searchMode(डिफ़ॉल्टqmd search --json; साथ हीvsearchऔरqueryसमर्थित) के माध्यम से चलाई जाती हैं। यदि चयनित मोड आपके QMD बिल्ड पर फ़्लैग स्वीकार नहीं करता, तो OpenClawqmd queryके साथ पुनः प्रयास करता है। यदि QMD विफल हो जाए या उसका बाइनरी अनुपलब्ध हो, तो OpenClaw स्वतः ही अंतर्निहित SQLite मैनेजर पर वापस आ जाता है ताकि memory टूल्स काम करते रहें। - पहली खोज धीमी हो सकती है: QMD पहली
qmd queryरन पर लोकल GGUF मॉडल (री-रैंकर/क्वेरी एक्सपैंशन) डाउनलोड कर सकता है। - पहली खोज धीमी हो सकती है: QMD पहली
qmd queryरन पर लोकल GGUF मॉडल (री-रैंकर/क्वेरी एक्सपैंशन) डाउनलोड कर सकता है।-
OpenClaw QMD चलाते समय
XDG_CONFIG_HOME/XDG_CACHE_HOMEस्वतः सेट करता है। -
यदि आप मॉडल्स को मैन्युअली प्री-डाउनलोड करना चाहते हैं (और वही इंडेक्स वार्म करना चाहते हैं जिसे OpenClaw
उपयोग करता है), तो एजेंट की XDG डाइरेक्टरीज़ के साथ एक वन-ऑफ़ क्वेरी चलाएँ।
OpenClaw की QMD स्टेट आपके स्टेट डिरेक्टरी के अंतर्गत रहती है (डिफ़ॉल्ट
~/.openclaw)। आप वही XDG वेरिएबल्स एक्सपोर्ट करकेqmdको बिल्कुल उसी इंडेक्स की ओर इंगित कर सकते हैं जिन्हें OpenClaw उपयोग करता है:
-
OpenClaw QMD चलाते समय
memory.qmd.*)
command(डिफ़ॉल्टqmd): executable पथ ओवरराइड करें।includeDefaultMemory(डिफ़ॉल्टtrue):MEMORY.md+memory/**/*.mdको ऑटो-इंडेक्स करें।paths[]: अतिरिक्त डाइरेक्टरी/फ़ाइलें जोड़ें (path, वैकल्पिकpattern, वैकल्पिक स्थिरname)।sessions: सत्र JSONL इंडेक्सिंग में ऑप्ट-इन (enabled,retentionDays,exportDir)।update: रिफ़्रेश कैडेंस और मेंटेनेंस एक्ज़ीक्यूशन नियंत्रित करता है: (interval,debounceMs,onBoot,waitForBootSync,embedInterval,commandTimeoutMs,updateTimeoutMs,embedTimeoutMs)।limits: रिकॉल पेलोड क्लैम्प (maxResults,maxSnippetChars,maxInjectedChars,timeoutMs)।scope:session.sendPolicyजैसा ही स्कीमा। डिफ़ॉल्ट DM-only है (denyसभी,allowडायरेक्ट चैट्स); इसे ढीला करें ताकि समूहों/चैनलों में QMD हिट्स दिखाई दें।scope:session.sendPolicyजैसा ही स्कीमा। डिफ़ॉल्ट DM-only है (denyसभी,allowडायरेक्ट चैट्स); इसे ढीला करें ताकि समूहों/चैनलों में QMD हिट्स दिखाई दें।match.keyPrefixnormalized session key (लोअरकेस, और किसी भी प्रारंभिकagent:<id>:को हटाकर) से मेल खाता है। उदाहरण:discord:channel:।match.rawKeyPrefixraw session key (लोअरकेस) से मेल खाता है, जिसमेंagent:<id>:शामिल होता है। उदाहरण:agent:main:discord:।- Legacy:
match.keyPrefix: "agent:..."को अभी भी raw-key prefix के रूप में माना जाता है, लेकिन स्पष्टता के लिएrawKeyPrefixका उपयोग करना बेहतर है।
- When
scopedenies a search, OpenClaw logs a warning with the derivedchannel/chatTypeso empty results are easier to debug. - जब
memory.qmd.sessions.enabled = true, OpenClaw sanitized सत्र ट्रांसक्रिप्ट्स (User/Assistant टर्न्स) को एक समर्पित QMD कलेक्शन में~/.openclaw/agents/<id>/qmd/sessions/के तहत एक्सपोर्ट करता है, ताकिmemory_searchहाल की बातचीतों को बिना बिल्ट-इन SQLite इंडेक्स को छुए रिकॉल कर सके। memory_searchस्निपेट्स अबSource: <path#line>फ़ूटर शामिल करते हैं जबmemory.citationsauto/onहो; पाथ मेटाडेटा को आंतरिक रखने के लिएmemory.citations = "off"सेट करें (एजेंट अभी भीmemory_getके लिए पाथ प्राप्त करता है, लेकिन स्निपेट टेक्स्ट फ़ूटर छोड़ देता है और सिस्टम प्रॉम्प्ट एजेंट को इसे उद्धृत न करने की चेतावनी देता है)।memory_searchस्निपेट्स अबSource: <path#line>फ़ूटर शामिल करते हैं जबmemory.citationsauto/onहो; पाथ मेटाडेटा को आंतरिक रखने के लिएmemory.citations = "off"सेट करें (एजेंट अभी भीmemory_getके लिए पाथ प्राप्त करता है, लेकिन स्निपेट टेक्स्ट फ़ूटर छोड़ देता है और सिस्टम प्रॉम्प्ट एजेंट को इसे उद्धृत न करने की चेतावनी देता है)।
memory.citationsबैकएंड की परवाह किए बिना लागू होता है (auto/on/off)।- जब
qmdचलता है, तो हमstatus().backend = "qmd"टैग करते हैं ताकि डायग्नॉस्टिक्स दिखा सकें कि परिणाम किस इंजन ने सर्व किए। यदि QMD सबप्रोसेस समाप्त हो जाए या JSON आउटपुट पार्स न हो सके, सर्च मैनेजर एक चेतावनी लॉग करता है और QMD के रिकवर होने तक बिल्ट-इन प्रदाता (मौजूदा Markdown एम्बेडिंग्स) लौटाता है।
Additional memory paths
यदि आप डिफ़ॉल्ट वर्कस्पेस लेआउट के बाहर Markdown फ़ाइलों को इंडेक्स करना चाहते हैं, तो स्पष्ट पाथ जोड़ें:- पाथ्स पूर्ण या वर्कस्पेस-रिलेटिव हो सकते हैं।
- डाइरेक्टरीज़
.mdफ़ाइलों के लिए रिकर्सिवली स्कैन की जाती हैं। - केवल Markdown फ़ाइलें इंडेक्स की जाती हैं।
- सिमलिंक्स अनदेखी की जाती हैं (फ़ाइलें या डाइरेक्टरीज़)।
Gemini embeddings (native)
Gemini embeddings API को सीधे उपयोग करने के लिए प्रदाता कोgemini पर सेट करें:
remote.baseUrlवैकल्पिक है (डिफ़ॉल्ट Gemini API बेस URL)।remote.headersआवश्यक होने पर अतिरिक्त हेडर्स जोड़ने देता है।- डिफ़ॉल्ट मॉडल:
gemini-embedding-001।
remote कॉन्फ़िगरेशन का उपयोग कर सकते हैं:
memorySearch.provider = "local" का उपयोग करें या
memorySearch.fallback = "none" सेट करें।
फ़ॉलबैक्स:
memorySearch.fallbackopenai,gemini,local, याnoneहो सकता है।- फ़ॉलबैक प्रदाता केवल तब उपयोग होता है जब प्राथमिक एम्बेडिंग प्रदाता विफल हो।
- डिफ़ॉल्ट रूप से अक्षम। बड़े-कॉर्पस इंडेक्सिंग (OpenAI, Gemini, और Voyage) के लिए सक्षम करने हेतु
agents.defaults.memorySearch.remote.batch.enabled = trueसेट करें। - डिफ़ॉल्ट व्यवहार बैच पूर्ण होने की प्रतीक्षा करता है; आवश्यकता होने पर
remote.batch.wait,remote.batch.pollIntervalMs, औरremote.batch.timeoutMinutesट्यून करें। - समानांतर में कितने बैच जॉब सबमिट हों, नियंत्रित करने के लिए
remote.batch.concurrencyसेट करें (डिफ़ॉल्ट: 2)। - बैच मोड तब लागू होता है जब
memorySearch.provider = "openai"या"gemini"हो और संबंधित API कुंजी का उपयोग करता है। - Gemini बैच जॉब्स async embeddings batch endpoint का उपयोग करते हैं और Gemini Batch API उपलब्धता की आवश्यकता होती है।
- बड़े बैकफ़िल्स के लिए, OpenAI आमतौर पर सबसे तेज़ विकल्प होता है क्योंकि हम एक ही बैच जॉब में कई एम्बेडिंग अनुरोध सबमिट कर सकते हैं और OpenAI को उन्हें असिंक्रोनस रूप से प्रोसेस करने दे सकते हैं।
- OpenAI Batch API वर्कलोड्स के लिए रियायती मूल्य निर्धारण प्रदान करता है, इसलिए बड़े इंडेक्सिंग रन सामान्यतः वही अनुरोध सिंक्रोनस रूप से भेजने की तुलना में सस्ते होते हैं।
- विवरण के लिए OpenAI Batch API दस्तावेज़ और मूल्य निर्धारण देखें:
memory_search— फ़ाइल + लाइन रेंज के साथ स्निपेट्स लौटाता है।memory_get— पाथ द्वारा मेमोरी फ़ाइल सामग्री पढ़ता है।
agents.defaults.memorySearch.provider = "local"सेट करें।agents.defaults.memorySearch.local.modelPathप्रदान करें (GGUF याhf:URI)।- वैकल्पिक: रिमोट फ़ॉलबैक से बचने के लिए
agents.defaults.memorySearch.fallback = "none"सेट करें।
How the memory tools work
memory_searchMEMORY.md+memory/**/*.mdसे Markdown चंक्स (~400 टोकन लक्ष्य, 80-टोकन ओवरलैप) को सिमेंटिक रूप से खोजता है। यह स्निपेट टेक्स्ट (लगभग ~700 अक्षरों तक सीमित), फ़ाइल पाथ, लाइन रेंज, स्कोर, प्रदाता/मॉडल, और यह कि हमने लोकल → रिमोट एम्बेडिंग्स पर फ़ॉलबैक किया या नहीं—लौटाता है। पूरा फ़ाइल पेलोड वापस नहीं किया जाता।memory_getकिसी विशिष्ट मेमोरी Markdown फ़ाइल (वर्कस्पेस-रिलेटिव) को पढ़ता है, वैकल्पिक रूप से किसी प्रारंभिक लाइन से और N लाइनों के लिए।MEMORY.md/memory/के बाहर के पाथ्स अस्वीकार किए जाते हैं।- दोनों टूल्स केवल तब सक्षम होते हैं जब एजेंट के लिए
memorySearch.enabledtrue सुलझता है।
What gets indexed (and when)
- फ़ाइल प्रकार: केवल Markdown (
MEMORY.md,memory/**/*.md)। - इंडेक्स स्टोरेज: प्रति-एजेंट SQLite
~/.openclaw/memory/<agentId>.sqliteपर (agents.defaults.memorySearch.store.pathके माध्यम से कॉन्फ़िगर योग्य,{agentId}टोकन समर्थित)। - ताज़गी:
MEMORY.md+memory/पर वॉचर इंडेक्स को डर्टी मार्क करता है (डेबाउंस 1.5s)। 1. सिंक सत्र शुरू होने पर, खोज के समय, या किसी अंतराल पर निर्धारित किया जाता है और असिंक्रोनस रूप से चलता है। 2. सत्र ट्रांसक्रिप्ट बैकग्राउंड सिंक को ट्रिगर करने के लिए डेल्टा थ्रेशहोल्ड का उपयोग करते हैं। -
- री‑इंडेक्स ट्रिगर: इंडेक्स provider/model + endpoint fingerprint + chunking params को संग्रहीत करता है। 4. यदि इनमें से कोई भी बदलता है, तो OpenClaw स्वचालित रूप से पूरे स्टोर को रीसेट करता है और दोबारा इंडेक्स करता है।
Hybrid search (BM25 + vector)
सक्षम होने पर, OpenClaw संयोजित करता है:- Vector similarity (सेमांटिक मैच, शब्दावली अलग हो सकती है)
- BM25 keyword relevance (IDs, env vars, कोड सिंबल्स जैसे सटीक टोकन)
Why hybrid?
वेक्टर खोज “यह वही मतलब रखता है” में बेहतरीन है:- “Mac Studio gateway host” बनाम “gateway चलाने वाली मशीन”
- “debounce file updates” बनाम “हर लिखावट पर इंडेक्सिंग से बचें”
- IDs (
a828e60,b3b9895a…) - कोड सिंबल्स (
memorySearch.query.hybrid) - त्रुटि स्ट्रिंग्स (“sqlite-vec unavailable”)
How we merge results (the current design)
Implementation sketch:- दोनों पक्षों से कैंडिडेट पूल प्राप्त करें:
- Vector: कोसाइन समानता द्वारा शीर्ष
maxResults * candidateMultiplier। - BM25: FTS5 BM25 रैंक द्वारा शीर्ष
maxResults * candidateMultiplier(कम बेहतर)।
- BM25 रैंक को 0..1-ish स्कोर में बदलें:
textScore = 1 / (1 + max(0, bm25Rank))
- चंक id द्वारा कैंडिडेट्स का यूनियन बनाएं और वेटेड स्कोर की गणना करें:
finalScore = vectorWeight * vectorScore + textWeight * textScore
vectorWeight+textWeightकॉन्फ़िग रेज़ोल्यूशन में 1.0 पर नॉर्मलाइज़ होता है, इसलिए वेट्स प्रतिशत की तरह व्यवहार करते हैं।- यदि एम्बेडिंग्स अनुपलब्ध हैं (या प्रदाता शून्य-वेक्टर लौटाता है), तो हम फिर भी BM25 चलाते हैं और कीवर्ड मैच लौटाते हैं।
- यदि FTS5 बनाया नहीं जा सकता, तो हम वेक्टर-ओनली खोज रखते हैं (कोई हार्ड फ़ेल्योर नहीं)।
- यह “IR‑theory perfect” नहीं है, लेकिन यह सरल, तेज़ है और वास्तविक नोट्स पर अक्सर रिकॉल/प्रिसिजन में सुधार करता है।
- यदि हम बाद में और उन्नत करना चाहें, तो सामान्य अगले कदम Reciprocal Rank Fusion (RRF) या स्कोर नॉर्मलाइज़ेशन (min/max या z‑score) को मिक्स करने से पहले होते हैं।
Embedding cache
OpenClaw SQLite में चंक एम्बेडिंग्स को कैश कर सकता है ताकि रीइंडेक्सिंग और बार-बार अपडेट्स (विशेषकर सत्र ट्रांसक्रिप्ट्स) अपरिवर्तित टेक्स्ट को दोबारा एम्बेड न करें। Config:Session memory search (experimental)
- आप वैकल्पिक रूप से session transcripts को इंडेक्स कर सकते हैं और उन्हें
memory_searchके माध्यम से दिखा सकते हैं। - यह एक experimental फ़्लैग के पीछे gated है।
- सत्र इंडेक्सिंग opt-in है (डिफ़ॉल्ट रूप से बंद)।
- सत्र अपडेट्स debounced होते हैं और असिंक्रोनस रूप से इंडेक्स किए जाते हैं जब वे डेल्टा थ्रेशहोल्ड्स पार करते हैं (best-effort)।
memory_searchकभी भी इंडेक्सिंग पर ब्लॉक नहीं करता; बैकग्राउंड सिंक पूरा होने तक परिणाम थोड़े stale हो सकते हैं।- परिणामों में अभी भी केवल स्निपेट्स शामिल होते हैं;
memory_getमेमोरी फ़ाइलों तक सीमित रहता है। - सत्र इंडेक्सिंग प्रति-एजेंट अलग-थलग होती है (केवल उसी एजेंट के सत्र लॉग्स इंडेक्स होते हैं)।
-
- सत्र लॉग डिस्क पर रहते हैं (
~/.openclaw/agents/<agentId>/sessions/*.jsonl)। 12. फ़ाइलसिस्टम एक्सेस वाला कोई भी प्रोसेस/यूज़र उन्हें पढ़ सकता है, इसलिए डिस्क एक्सेस को trust boundary मानें। For stricter isolation, run agents under separate OS users or hosts.
- सत्र लॉग डिस्क पर रहते हैं (
SQLite vector acceleration (sqlite-vec)
- जब sqlite‑vec एक्सटेंशन उपलब्ध होता है, OpenClaw एम्बेडिंग्स को
SQLite वर्चुअल टेबल (
vec0) में स्टोर करता है और डेटाबेस में वेक्टर डिस्टेंस क्वेरी करता है। 15. इससे हर एम्बेडिंग को JS में लोड किए बिना सर्च तेज़ रहती है।
enabledडिफ़ॉल्ट रूप से true है; अक्षम होने पर खोज स्टोर की गई एम्बेडिंग्स पर इन-प्रोसेस कोसाइन समानता पर फ़ॉलबैक करती है।- यदि sqlite-vec एक्सटेंशन गायब है या लोड होने में विफल रहता है, OpenClaw त्रुटि लॉग करता है और JS फ़ॉलबैक के साथ जारी रहता है (कोई वेक्टर टेबल नहीं)।
extensionPathबंडल्ड sqlite-vec पाथ को ओवरराइड करता है (कस्टम बिल्ड्स या गैर-मानक इंस्टॉल लोकेशन्स के लिए उपयोगी)।
Local embedding auto-download
- डिफ़ॉल्ट लोकल एम्बेडिंग मॉडल:
hf:ggml-org/embeddinggemma-300M-GGUF/embeddinggemma-300M-Q8_0.gguf(~0.6 GB)। - When
memorySearch.provider = "local",node-llama-cppresolvesmodelPath; if the GGUF is missing it auto-downloads to the cache (orlocal.modelCacheDirif set), then loads it. 17. डाउनलोड्स रीट्राई पर रिज़्यूम हो जाते हैं। - नेटिव बिल्ड आवश्यकता:
pnpm approve-buildsचलाएँ,node-llama-cppचुनें, फिरpnpm rebuild node-llama-cpp। - फ़ॉलबैक: यदि लोकल सेटअप विफल होता है और
memorySearch.fallback = "openai", तो हम स्वतः रिमोट एम्बेडिंग्स (openai/text-embedding-3-smallजब तक ओवरराइड न हो) पर स्विच करते हैं और कारण रिकॉर्ड करते हैं।
Custom OpenAI-compatible endpoint example
remote.*कोmodels.providers.openai.*पर प्राथमिकता मिलती है।-
remote.headersOpenAI हेडर्स के साथ मर्ज होते हैं; key conflict होने पर remote जीतता है। 19. OpenAI डिफ़ॉल्ट्स उपयोग करने के लिएremote.headersको छोड़ दें।