KI-Gedächtnisassistent für OpenClaw-Agenten
Geben Sie Ihrem KI-Agenten ein Gehirn, das sich wirklich erinnert — über Sitzungen, Agenten und Zeit hinweg.
Ein LanceDB-basiertes OpenClaw-Langzeitgedächtnis-Plugin, das Präferenzen, Entscheidungen und Projektkontext speichert und in zukünftigen Sitzungen automatisch abruft.
English | 简体中文 | 繁體中文 | 日本語 | 한국어 | Français | Español | Deutsch | Italiano | Русский | Português (Brasil)
Die meisten KI-Agenten leiden unter Amnesie. Sie vergessen alles, sobald Sie einen neuen Chat starten.
memory-lancedb-pro ist ein produktionsreifes Langzeitgedächtnis-Plugin für OpenClaw, das Ihren Agenten in einen echten KI-Gedächtnisassistenten verwandelt — es erfasst automatisch, was wichtig ist, lässt Rauschen natürlich verblassen und ruft die richtige Erinnerung zum richtigen Zeitpunkt ab. Kein manuelles Taggen, keine Konfigurationsprobleme.
Ohne Gedächtnis — jede Sitzung beginnt bei null:
Sie: „Verwende Tabs für die Einrückung, füge immer Fehlerbehandlung hinzu." (nächste Sitzung) Sie: „Ich habe es dir schon gesagt — Tabs, nicht Leerzeichen!" 😤 (nächste Sitzung) Sie: „…ernsthaft, Tabs. Und Fehlerbehandlung. Schon wieder."
Mit memory-lancedb-pro — Ihr Agent lernt und erinnert sich:
Sie: „Verwende Tabs für die Einrückung, füge immer Fehlerbehandlung hinzu." (nächste Sitzung — Agent ruft automatisch Ihre Präferenzen ab) Agent: (wendet still Tabs + Fehlerbehandlung an) ✅ Sie: „Warum haben wir letzten Monat PostgreSQL statt MongoDB gewählt?" Agent: „Basierend auf unserer Diskussion am 12. Februar waren die Hauptgründe…" ✅
Das ist der Unterschied, den ein KI-Gedächtnisassistent macht — er lernt Ihren Stil, erinnert sich an vergangene Entscheidungen und liefert personalisierte Antworten, ohne dass Sie sich wiederholen müssen.
| Was Sie bekommen | |
|---|---|
| Auto-Capture | Ihr Agent lernt aus jeder Unterhaltung — kein manuelles memory_store nötig |
| Intelligente Extraktion | LLM-gestützte 6-Kategorien-Klassifikation: Profile, Präferenzen, Entitäten, Ereignisse, Fälle, Muster |
| Intelligentes Vergessen | Weibull-Zerfallsmodell — wichtige Erinnerungen bleiben, Rauschen verblasst natürlich |
| Hybride Suche | Vektor + BM25 Volltextsuche, fusioniert mit Cross-Encoder-Reranking |
| Kontextinjektion | Relevante Erinnerungen tauchen automatisch vor jeder Antwort auf |
| Multi-Scope-Isolation | Gedächtnisgrenzen pro Agent, pro Benutzer, pro Projekt |
| Jeder Anbieter | OpenAI, Jina, Gemini, Ollama oder jede OpenAI-kompatible API |
| Vollständiges Toolkit | CLI, Backup, Migration, Upgrade, Export/Import — produktionsbereit |
CPU-Anforderung: Deine CPU muss AVX/AVX2-Befehle unterstützen (Intel Sandy Bridge 2011+ / AMD Bulldozer 2011+). Die native Vektor-Engine von LanceDB benötigt diese — auf nicht unterstützten CPUs stürzt das Plugin mit
SIGILL(Illegal Instruction) ab. Prüfe mit:grep -o 'avx[^ ]*' /proc/cpuinfo | head -1(keine Ausgabe = nicht unterstützt). Siehe #419.
Das community-gepflegte Setup-Skript erledigt Installation, Upgrade und Reparatur in einem Befehl:
curl -fsSL https://raw.githubusercontent.com/CortexReach/toolbox/main/memory-lancedb-pro-setup/setup-memory.sh -o setup-memory.sh
bash setup-memory.shSiehe Ökosystem unten für die vollständige Liste der abgedeckten Szenarien und andere Community-Tools.
Über OpenClaw CLI (empfohlen):
openclaw plugins install memory-lancedb-pro@betaOder über npm:
npm i memory-lancedb-pro@betaBei npm-Installation müssen Sie auch das Plugin-Installationsverzeichnis als absoluten Pfad in
plugins.load.pathsIhreropenclaw.jsonhinzufügen. Dies ist das häufigste Einrichtungsproblem.
Fügen Sie zu Ihrer openclaw.json hinzu:
{
"plugins": {
"slots": { "memory": "memory-lancedb-pro" },
"entries": {
"memory-lancedb-pro": {
"enabled": true,
"config": {
"embedding": {
"provider": "openai-compatible",
"apiKey": "${OPENAI_API_KEY}",
"model": "text-embedding-3-small"
},
"autoCapture": true,
"autoRecall": true,
"smartExtraction": true,
"extractMinMessages": 2,
"extractMaxChars": 8000,
"sessionMemory": { "enabled": false }
}
}
}
}
}Warum diese Standardwerte?
autoCapture+smartExtraction→ Ihr Agent lernt automatisch aus jeder UnterhaltungautoRecall→ relevante Erinnerungen werden vor jeder Antwort injiziertextractMinMessages: 2→ Extraktion wird bei normalen Zwei-Runden-Chats ausgelöstsessionMemory.enabled: false→ vermeidet Verschmutzung der Suche durch Sitzungszusammenfassungen am Anfang
Validieren und neu starten:
openclaw config validate
openclaw gateway restart
openclaw logs --follow --plain | grep "memory-lancedb-pro"Sie sollten sehen:
memory-lancedb-pro: smart extraction enabledmemory-lancedb-pro@...: plugin registered
Fertig! Ihr Agent verfügt jetzt über Langzeitgedächtnis.
Weitere Installationswege (bestehende Benutzer, Upgrades)
Bereits OpenClaw-Benutzer?
- Fügen Sie das Plugin mit einem absoluten
plugins.load.paths-Eintrag hinzu - Binden Sie den Memory-Slot:
plugins.slots.memory = "memory-lancedb-pro" - Überprüfen:
openclaw plugins info memory-lancedb-pro && openclaw memory-pro stats
Upgrade von vor v1.1.0?
# 1) Backup
openclaw memory-pro export --scope global --output memories-backup.json
# 2) Testlauf
openclaw memory-pro upgrade --dry-run
# 3) Upgrade ausführen
openclaw memory-pro upgrade
# 4) Überprüfen
openclaw memory-pro statsSiehe CHANGELOG-v1.1.0.md für Verhaltensänderungen und Upgrade-Begründung.
Telegram-Bot-Schnellimport (zum Aufklappen klicken)
Wenn Sie die Telegram-Integration von OpenClaw verwenden, ist es am einfachsten, einen Importbefehl direkt an den Hauptbot zu senden, anstatt die Konfiguration manuell zu bearbeiten.
Senden Sie diese Nachricht:
Help me connect this memory plugin with the most user-friendly configuration: https://github.com/CortexReach/memory-lancedb-pro
Requirements:
1. Set it as the only active memory plugin
2. Use Jina for embedding
3. Use Jina for reranker
4. Use gpt-4o-mini for the smart-extraction LLM
5. Enable autoCapture, autoRecall, smartExtraction
6. extractMinMessages=2
7. sessionMemory.enabled=false
8. captureAssistant=false
9. retrieval mode=hybrid, vectorWeight=0.7, bm25Weight=0.3
10. rerank=cross-encoder, candidatePoolSize=12, minScore=0.6, hardMinScore=0.62
11. Generate the final openclaw.json config directly, not just an explanation
memory-lancedb-pro ist das Kern-Plugin. Die Community hat Tools darum herum gebaut, um Einrichtung und tägliche Nutzung noch reibungsloser zu machen:
Nicht nur ein einfacher Installer — das Skript behandelt intelligent eine Vielzahl realer Szenarien:
| Ihre Situation | Was das Skript macht |
|---|---|
| Nie installiert | Frischer Download → Abhängigkeiten installieren → Konfiguration wählen → in openclaw.json schreiben → Neustart |
Per git clone installiert, auf altem Commit hängen geblieben |
Automatisches git fetch + checkout auf neueste Version → Abhängigkeiten neu installieren → Verifizieren |
| Konfiguration hat ungültige Felder | Automatische Erkennung per Schema-Filter, nicht unterstützte Felder entfernen |
Per npm installiert |
Überspringt Git-Update, erinnert Sie daran, npm update selbst auszuführen |
openclaw CLI durch ungültige Konfiguration defekt |
Fallback: Workspace-Pfad direkt aus der openclaw.json-Datei lesen |
extensions/ statt plugins/ |
Automatische Erkennung des Plugin-Standorts aus Konfiguration oder Dateisystem |
| Bereits aktuell | Nur Gesundheitschecks ausführen, keine Änderungen |
bash setup-memory.sh # Installieren oder upgraden
bash setup-memory.sh --dry-run # Nur Vorschau
bash setup-memory.sh --beta # Pre-Release-Versionen einschließen
bash setup-memory.sh --uninstall # Konfiguration zurücksetzen und Plugin entfernenEingebaute Anbieter-Presets: Jina / DashScope / SiliconFlow / OpenAI / Ollama, oder bringen Sie Ihre eigene OpenAI-kompatible API mit. Für die vollständige Nutzung (einschließlich --ref, --selfcheck-only und mehr) siehe das Setup-Skript README.
Installieren Sie diesen Skill und Ihr KI-Agent (Claude Code oder OpenClaw) erhält tiefgreifendes Wissen über alle Funktionen von memory-lancedb-pro. Sagen Sie einfach „hilf mir die beste Konfiguration zu aktivieren" und erhalten Sie:
- Geführter 7-Schritte-Konfigurationsworkflow mit 4 Bereitstellungsplänen:
- Full Power (Jina + OpenAI) / Budget (kostenloser SiliconFlow Reranker) / Simple (nur OpenAI) / Vollständig lokal (Ollama, null API-Kosten)
- Alle 9 MCP-Tools korrekt verwendet:
memory_recall,memory_store,memory_forget,memory_update,memory_stats,memory_list,self_improvement_log,self_improvement_extract_skill,self_improvement_review(vollständiges Toolset erfordertenableManagementTools: true— die Standard-Schnellstart-Konfiguration stellt nur die 4 Kern-Tools bereit) - Vermeidung häufiger Fallstricke: Workspace-Plugin-Aktivierung,
autoRecallstandardmäßig false, jiti-Cache, Umgebungsvariablen, Scope-Isolation und mehr
Installation für Claude Code:
git clone https://github.com/CortexReach/memory-lancedb-pro-skill.git ~/.claude/skills/memory-lancedb-proInstallation für OpenClaw:
git clone https://github.com/CortexReach/memory-lancedb-pro-skill.git ~/.openclaw/workspace/skills/memory-lancedb-pro-skillVollständige Anleitung: Installation, Konfiguration und Funktionsweise der hybriden Suche.
https://www.bilibili.com/video/BV1zUf2BGEgn/
┌─────────────────────────────────────────────────────────┐
│ index.ts (Einstiegspunkt) │
│ Plugin-Registrierung · Config-Parsing · Lifecycle-Hooks│
└────────┬──────────┬──────────┬──────────┬───────────────┘
│ │ │ │
┌────▼───┐ ┌────▼───┐ ┌───▼────┐ ┌──▼──────────┐
│ store │ │embedder│ │retriever│ │ scopes │
│ .ts │ │ .ts │ │ .ts │ │ .ts │
└────────┘ └────────┘ └────────┘ └─────────────┘
│ │
┌────▼───┐ ┌─────▼──────────┐
│migrate │ │noise-filter.ts │
│ .ts │ │adaptive- │
└────────┘ │retrieval.ts │
└────────────────┘
┌─────────────┐ ┌──────────┐
│ tools.ts │ │ cli.ts │
│ (Agent-API) │ │ (CLI) │
└─────────────┘ └──────────┘
Für eine detaillierte Analyse der vollständigen Architektur siehe docs/memory_architecture_analysis.md.
Dateireferenz (zum Aufklappen klicken)
| Datei | Zweck |
|---|---|
index.ts |
Plugin-Einstiegspunkt. Registriert sich bei der OpenClaw Plugin API, parst Konfiguration, bindet Lifecycle-Hooks ein |
openclaw.plugin.json |
Plugin-Metadaten + vollständige JSON-Schema-Konfigurationsdeklaration |
cli.ts |
CLI-Befehle: memory-pro list/search/stats/delete/delete-bulk/export/import/reembed/upgrade/migrate |
src/store.ts |
LanceDB-Speicherschicht. Tabellenerstellung / FTS-Indexierung / Vektorsuche / BM25-Suche / CRUD |
src/embedder.ts |
Embedding-Abstraktion. Kompatibel mit jedem OpenAI-kompatiblen API-Anbieter |
src/retriever.ts |
Hybride Suchmaschine. Vektor + BM25 → Hybride Fusion → Rerank → Lifecycle-Zerfall → Filter |
src/scopes.ts |
Multi-Scope-Zugriffskontrolle |
src/tools.ts |
Agent-Tool-Definitionen: memory_recall, memory_store, memory_forget, memory_update + Verwaltungstools |
src/noise-filter.ts |
Filtert Agent-Ablehnungen, Meta-Fragen, Begrüßungen und minderwertige Inhalte |
src/adaptive-retrieval.ts |
Bestimmt, ob eine Abfrage Gedächtnisabruf benötigt |
src/migrate.ts |
Migration vom eingebauten memory-lancedb zu Pro |
src/smart-extractor.ts |
LLM-gestützte 6-Kategorien-Extraktion mit L0/L1/L2 Schichtspeicherung und zweistufiger Deduplizierung |
src/decay-engine.ts |
Weibull Stretched-Exponential-Zerfallsmodell |
src/tier-manager.ts |
Dreistufige Beförderung/Herabstufung: Peripheral ↔ Working ↔ Core |
Query → embedQuery() ─┐
├─→ Hybride Fusion → Rerank → Lifecycle-Zerfall-Boost → Längennorm → Filter
Query → BM25 FTS ─────┘
- Vektorsuche — semantische Ähnlichkeit über LanceDB ANN (Kosinus-Distanz)
- BM25 Volltextsuche — exakte Schlüsselwortübereinstimmung über LanceDB FTS-Index
- Hybride Fusion — Vektorscore als Basis, BM25-Treffer erhalten gewichteten Boost (kein Standard-RRF — optimiert für reale Abrufqualität)
- Konfigurierbare Gewichte —
vectorWeight,bm25Weight,minScore
- Eingebaute Adapter für Jina, SiliconFlow, Voyage AI und Pinecone
- Kompatibel mit jedem Jina-kompatiblen Endpunkt (z.B. Hugging Face TEI, DashScope)
- Hybrid-Scoring: 60% Cross-Encoder + 40% ursprünglicher fusionierter Score
- Graceful Degradation: Rückfall auf Kosinus-Ähnlichkeit bei API-Ausfall
| Stufe | Effekt |
|---|---|
| Hybride Fusion | Kombiniert semantische und exakte Suche |
| Cross-Encoder Rerank | Fördert semantisch präzise Treffer |
| Lifecycle-Zerfall-Boost | Weibull-Aktualität + Zugriffshäufigkeit + Wichtigkeit × Konfidenz |
| Längennormalisierung | Verhindert, dass lange Einträge dominieren (Anker: 500 Zeichen) |
| Harter Mindestscore | Entfernt irrelevante Ergebnisse (Standard: 0.35) |
| MMR-Diversität | Kosinus-Ähnlichkeit > 0.85 → herabgestuft |
- LLM-gestützte 6-Kategorien-Extraktion: Profil, Präferenzen, Entitäten, Ereignisse, Fälle, Muster
- L0/L1/L2 Schichtspeicherung: L0 (Einzeiler-Index) → L1 (strukturierte Zusammenfassung) → L2 (vollständige Erzählung)
- Zweistufige Deduplizierung: Vektor-Ähnlichkeits-Vorfilter (≥0.7) → LLM semantische Entscheidung (CREATE/MERGE/SKIP)
- Kategoriebasierte Zusammenführung:
profilewird immer zusammengeführt,events/casessind nur anfügbar
- Weibull-Zerfallsmotor: Gesamtscore = Aktualität + Häufigkeit + intrinsischer Wert
- Dreistufige Beförderung:
Peripheral ↔ Working ↔ Coremit konfigurierbaren Schwellenwerten - Zugriffsverstärkung: Häufig abgerufene Erinnerungen zerfallen langsamer (Spaced-Repetition-Stil)
- Wichtigkeitsmodulierte Halbwertszeit: Wichtige Erinnerungen zerfallen langsamer
- Eingebaute Scopes:
global,agent:<id>,custom:<name>,project:<id>,user:<id> - Zugriffskontrolle auf Agentenebene über
scopes.agentAccess - Standard: Jeder Agent greift auf
global+ seinen eigenenagent:<id>-Scope zu
- Auto-Capture (
agent_end): Extrahiert Präferenzen/Fakten/Entscheidungen/Entitäten aus Gesprächen, dedupliziert, speichert bis zu 3 pro Runde - Auto-Recall (
before_agent_start): Injiziert<relevant-memories>-Kontext (bis zu 3 Einträge)
- Filtert minderwertige Inhalte: Agent-Ablehnungen, Meta-Fragen, Begrüßungen
- Überspringt Suche bei: Begrüßungen, Slash-Befehlen, einfachen Bestätigungen, Emoji
- Erzwingt Suche bei Gedächtnis-Schlüsselwörtern („erinnere dich", „vorher", „letztes Mal")
- CJK-bewusste Schwellenwerte (Chinesisch: 6 Zeichen vs Englisch: 15 Zeichen)
Vergleich mit dem eingebauten memory-lancedb (zum Aufklappen klicken)
| Funktion | Eingebautes memory-lancedb |
memory-lancedb-pro |
|---|---|---|
| Vektorsuche | Ja | Ja |
| BM25 Volltextsuche | - | Ja |
| Hybride Fusion (Vektor + BM25) | - | Ja |
| Cross-Encoder Rerank (Multi-Anbieter) | - | Ja |
| Aktualitäts-Boost und Zeitzerfall | - | Ja |
| Längennormalisierung | - | Ja |
| MMR-Diversität | - | Ja |
| Multi-Scope-Isolation | - | Ja |
| Rauschfilterung | - | Ja |
| Adaptive Suche | - | Ja |
| Verwaltungs-CLI | - | Ja |
| Sitzungsgedächtnis | - | Ja |
| Aufgabenbezogene Embeddings | - | Ja |
| LLM Intelligente Extraktion (6 Kategorien) | - | Ja (v1.1.0) |
| Weibull-Zerfall + Stufenbeförderung | - | Ja (v1.1.0) |
| Beliebiges OpenAI-kompatibles Embedding | Eingeschränkt | Ja |
Vollständiges Konfigurationsbeispiel
{
"embedding": {
"apiKey": "${JINA_API_KEY}",
"model": "jina-embeddings-v5-text-small",
"baseURL": "https://api.jina.ai/v1",
"dimensions": 1024,
"taskQuery": "retrieval.query",
"taskPassage": "retrieval.passage",
"normalized": true
},
"dbPath": "~/.openclaw/memory/lancedb-pro",
"autoCapture": true,
"autoRecall": true,
"retrieval": {
"mode": "hybrid",
"vectorWeight": 0.7,
"bm25Weight": 0.3,
"minScore": 0.3,
"rerank": "cross-encoder",
"rerankApiKey": "${JINA_API_KEY}",
"rerankModel": "jina-reranker-v3",
"rerankEndpoint": "https://api.jina.ai/v1/rerank",
"rerankProvider": "jina",
"candidatePoolSize": 20,
"recencyHalfLifeDays": 14,
"recencyWeight": 0.1,
"filterNoise": true,
"lengthNormAnchor": 500,
"hardMinScore": 0.35,
"timeDecayHalfLifeDays": 60,
"reinforcementFactor": 0.5,
"maxHalfLifeMultiplier": 3
},
"enableManagementTools": false,
"scopes": {
"default": "global",
"definitions": {
"global": { "description": "Shared knowledge" },
"agent:discord-bot": { "description": "Discord bot private" }
},
"agentAccess": {
"discord-bot": ["global", "agent:discord-bot"]
}
},
"sessionMemory": {
"enabled": false,
"messageCount": 15
},
"smartExtraction": true,
"llm": {
"apiKey": "${OPENAI_API_KEY}",
"model": "gpt-4o-mini",
"baseURL": "https://api.openai.com/v1"
},
"extractMinMessages": 2,
"extractMaxChars": 8000
}Embedding-Anbieter
Funktioniert mit jeder OpenAI-kompatiblen Embedding-API:
| Anbieter | Modell | Basis-URL | Dimensionen |
|---|---|---|---|
| Jina (empfohlen) | jina-embeddings-v5-text-small |
https://api.jina.ai/v1 |
1024 |
| OpenAI | text-embedding-3-small |
https://api.openai.com/v1 |
1536 |
| Voyage | voyage-4-lite / voyage-4 |
https://api.voyageai.com/v1 |
1024 / 1024 |
| Google Gemini | gemini-embedding-001 |
https://generativelanguage.googleapis.com/v1beta/openai/ |
3072 |
| Ollama (lokal) | nomic-embed-text |
http://localhost:11434/v1 |
anbieterspezifisch |
Rerank-Anbieter
Cross-Encoder Reranking unterstützt mehrere Anbieter über rerankProvider:
| Anbieter | rerankProvider |
Beispielmodell |
|---|---|---|
| Jina (Standard) | jina |
jina-reranker-v3 |
| SiliconFlow (kostenlose Stufe verfügbar) | siliconflow |
BAAI/bge-reranker-v2-m3 |
| Voyage AI | voyage |
rerank-2.5 |
| Pinecone | pinecone |
bge-reranker-v2-m3 |
Jeder Jina-kompatible Rerank-Endpunkt funktioniert ebenfalls — setzen Sie rerankProvider: "jina" und verweisen Sie rerankEndpoint auf Ihren Dienst (z.B. Hugging Face TEI, DashScope qwen3-rerank).
Intelligente Extraktion (LLM) — v1.1.0
Wenn smartExtraction aktiviert ist (Standard: true), verwendet das Plugin ein LLM, um Erinnerungen intelligent zu extrahieren und zu klassifizieren, anstatt regex-basierte Auslöser zu verwenden.
| Feld | Typ | Standard | Beschreibung |
|---|---|---|---|
smartExtraction |
boolean | true |
LLM-gestützte 6-Kategorien-Extraktion aktivieren/deaktivieren |
llm.auth |
string | api-key |
api-key verwendet llm.apiKey / embedding.apiKey; oauth verwendet standardmäßig eine plugin-spezifische OAuth-Token-Datei |
llm.apiKey |
string | (Rückfall auf embedding.apiKey) |
API-Schlüssel für den LLM-Anbieter |
llm.model |
string | openai/gpt-oss-120b |
LLM-Modellname |
llm.baseURL |
string | (Rückfall auf embedding.baseURL) |
LLM-API-Endpunkt |
llm.oauthProvider |
string | openai-codex |
OAuth-Anbieter-ID bei llm.auth = oauth |
llm.oauthPath |
string | ~/.openclaw/.memory-lancedb-pro/oauth.json |
OAuth-Token-Datei bei llm.auth = oauth |
llm.timeoutMs |
number | 30000 |
LLM-Anfrage-Timeout in Millisekunden |
extractMinMessages |
number | 2 |
Mindestanzahl an Nachrichten bevor Extraktion ausgelöst wird |
extractMaxChars |
number | 8000 |
Maximale Zeichenanzahl, die an das LLM gesendet wird |
OAuth llm-Konfiguration (vorhandenen Codex / ChatGPT Login-Cache für LLM-Aufrufe verwenden):
{
"llm": {
"auth": "oauth",
"oauthProvider": "openai-codex",
"model": "gpt-5.4",
"oauthPath": "${HOME}/.openclaw/.memory-lancedb-pro/oauth.json",
"timeoutMs": 30000
}
}Hinweise zu llm.auth: "oauth":
llm.oauthProviderist derzeitopenai-codex.- OAuth-Tokens werden standardmäßig unter
~/.openclaw/.memory-lancedb-pro/oauth.jsongespeichert. - Sie können
llm.oauthPathsetzen, wenn Sie die Datei an einem anderen Ort speichern möchten. auth loginerstellt eine Sicherung der vorherigen api-keyllm-Konfiguration neben der OAuth-Datei, undauth logoutstellt diese Sicherung bei Verfügbarkeit wieder her.- Der Wechsel von
api-keyzuoauthüberträgtllm.baseURLnicht automatisch. Setzen Sie es im OAuth-Modus nur manuell, wenn Sie absichtlich ein benutzerdefiniertes ChatGPT/Codex-kompatibles Backend verwenden möchten.
Lebenszyklus-Konfiguration (Zerfall + Stufen)
| Feld | Standard | Beschreibung |
|---|---|---|
decay.recencyHalfLifeDays |
30 |
Basis-Halbwertszeit für Weibull-Aktualitätszerfall |
decay.frequencyWeight |
0.3 |
Gewichtung der Zugriffshäufigkeit im Gesamtscore |
decay.intrinsicWeight |
0.3 |
Gewichtung von Wichtigkeit × Konfidenz |
decay.betaCore |
0.8 |
Weibull-Beta für core-Erinnerungen |
decay.betaWorking |
1.0 |
Weibull-Beta für working-Erinnerungen |
decay.betaPeripheral |
1.3 |
Weibull-Beta für peripheral-Erinnerungen |
tier.coreAccessThreshold |
10 |
Mindestanzahl Abrufe vor Beförderung zu core |
tier.peripheralAgeDays |
60 |
Altersschwelle für die Herabstufung veralteter Erinnerungen |
Zugriffsverstärkung
Häufig abgerufene Erinnerungen zerfallen langsamer (Spaced-Repetition-Stil).
Konfigurationsschlüssel (unter retrieval):
reinforcementFactor(0-2, Standard:0.5) — auf0setzen zum DeaktivierenmaxHalfLifeMultiplier(1-10, Standard:3) — harte Obergrenze für die effektive Halbwertszeit
openclaw memory-pro list [--scope global] [--category fact] [--limit 20] [--json]
openclaw memory-pro search "query" [--scope global] [--limit 10] [--json]
openclaw memory-pro stats [--scope global] [--json]
openclaw memory-pro auth login [--provider openai-codex] [--model gpt-5.4] [--oauth-path /abs/path/oauth.json]
openclaw memory-pro auth status
openclaw memory-pro auth logout
openclaw memory-pro delete <id>
openclaw memory-pro delete-bulk --scope global [--before 2025-01-01] [--dry-run]
openclaw memory-pro export [--scope global] [--output memories.json]
openclaw memory-pro import memories.json [--scope global] [--dry-run]
openclaw memory-pro reembed --source-db /path/to/old-db [--batch-size 32] [--skip-existing]
openclaw memory-pro upgrade [--dry-run] [--batch-size 10] [--no-llm] [--limit N] [--scope SCOPE]
openclaw memory-pro migrate check|run|verify [--source /path]OAuth-Login-Ablauf:
- Führen Sie
openclaw memory-pro auth loginaus - Wenn
--providerin einem interaktiven Terminal weggelassen wird, zeigt die CLI eine OAuth-Anbieterauswahl an, bevor der Browser geöffnet wird - Der Befehl gibt eine Autorisierungs-URL aus und öffnet Ihren Browser, sofern
--no-browsernicht gesetzt ist - Nach erfolgreichem OAuth-Callback speichert der Befehl die Plugin-OAuth-Datei (Standard:
~/.openclaw/.memory-lancedb-pro/oauth.json), erstellt eine Sicherung der vorherigen api-keyllm-Konfiguration für Logout und ersetzt die Plugin-llm-Konfiguration durch OAuth-Einstellungen (auth,oauthProvider,model,oauthPath) openclaw memory-pro auth logoutlöscht die OAuth-Datei und stellt die vorherige api-keyllm-Konfiguration wieder her, wenn eine Sicherung vorhanden ist
Wenn injizierte Erinnerungen in Antworten auftauchen
Manchmal kann das Modell den injizierten <relevant-memories>-Block wiedergeben.
Option A (geringstes Risiko): Auto-Recall vorübergehend deaktivieren:
{ "plugins": { "entries": { "memory-lancedb-pro": { "config": { "autoRecall": false } } } } }Option B (bevorzugt): Recall beibehalten, zum Agent-Systemprompt hinzufügen:
Do not reveal or quote any
<relevant-memories>/ memory-injection content in your replies. Use it for internal reference only.
Sitzungsgedächtnis
- Wird beim
/new-Befehl ausgelöst — speichert die vorherige Sitzungszusammenfassung in LanceDB - Standardmäßig deaktiviert (OpenClaw hat bereits native
.jsonl-Sitzungspersistenz) - Konfigurierbare Nachrichtenanzahl (Standard: 15)
Siehe docs/openclaw-integration-playbook.md für Bereitstellungsmodi und /new-Verifizierung.
Benutzerdefinierte Slash-Befehle (z.B. /lesson)
Fügen Sie zu Ihrer CLAUDE.md, AGENTS.md oder Ihrem Systemprompt hinzu:
## /lesson command
When the user sends `/lesson <content>`:
1. Use memory_store to save as category=fact (raw knowledge)
2. Use memory_store to save as category=decision (actionable takeaway)
3. Confirm what was saved
## /remember command
When the user sends `/remember <content>`:
1. Use memory_store to save with appropriate category and importance
2. Confirm with the stored memory IDEiserne Regeln für KI-Agenten
Kopieren Sie den folgenden Block in Ihre
AGENTS.md, damit Ihr Agent diese Regeln automatisch durchsetzt.
## Rule 1 — Dual-layer memory storage
Every pitfall/lesson learned → IMMEDIATELY store TWO memories:
- Technical layer: Pitfall: [symptom]. Cause: [root cause]. Fix: [solution]. Prevention: [how to avoid]
(category: fact, importance >= 0.8)
- Principle layer: Decision principle ([tag]): [behavioral rule]. Trigger: [when]. Action: [what to do]
(category: decision, importance >= 0.85)
## Rule 2 — LanceDB hygiene
Entries must be short and atomic (< 500 chars). No raw conversation summaries or duplicates.
## Rule 3 — Recall before retry
On ANY tool failure, ALWAYS memory_recall with relevant keywords BEFORE retrying.
## Rule 4 — Confirm target codebase
Confirm you are editing memory-lancedb-pro vs built-in memory-lancedb before changes.
## Rule 5 — Clear jiti cache after plugin code changes
After modifying .ts files under plugins/, MUST run rm -rf /tmp/jiti/ BEFORE openclaw gateway restart.Datenbankschema
LanceDB-Tabelle memories:
| Feld | Typ | Beschreibung |
|---|---|---|
id |
string (UUID) | Primärschlüssel |
text |
string | Gedächtnistext (FTS-indiziert) |
vector |
float[] | Embedding-Vektor |
category |
string | Speicherkategorie: preference / fact / decision / entity / reflection / other |
scope |
string | Scope-Bezeichner (z.B. global, agent:main) |
importance |
float | Wichtigkeitsscore 0-1 |
timestamp |
int64 | Erstellungszeitstempel (ms) |
metadata |
string (JSON) | Erweiterte Metadaten |
Häufige metadata-Schlüssel in v1.1.0: l0_abstract, l1_overview, l2_content, memory_category, tier, access_count, confidence, last_accessed_at
Hinweis zu Kategorien: Das Top-Level-Feld
categoryverwendet 6 Speicherkategorien. Die 6-Kategorien-semantischen Labels der intelligenten Extraktion (profile/preferences/entities/events/cases/patterns) werden inmetadata.memory_categorygespeichert.
Fehlerbehebung
Bei LanceDB 0.26+ können einige numerische Spalten als BigInt zurückgegeben werden. Aktualisieren Sie auf memory-lancedb-pro >= 1.0.14 — dieses Plugin konvertiert Werte nun mit Number(...) vor arithmetischen Operationen.
| Dokument | Beschreibung |
|---|---|
| OpenClaw Integrations-Playbook | Bereitstellungsmodi, Verifizierung, Regressionsmatrix |
| Gedächtnisarchitektur-Analyse | Vollständige Architektur-Tiefenanalyse |
| CHANGELOG v1.1.0 | Verhaltensänderungen v1.1.0 und Upgrade-Begründung |
| Langkontext-Chunking | Chunking-Strategie für lange Dokumente |
Status: Beta — verfügbar über
npm i memory-lancedb-pro@beta. Stabile Benutzer auflatestsind nicht betroffen.
| Funktion | Beschreibung |
|---|---|
| Intelligente Extraktion | LLM-gestützte 6-Kategorien-Extraktion mit L0/L1/L2 Metadaten. Rückfall auf Regex wenn deaktiviert. |
| Lebenszyklus-Scoring | Weibull-Zerfall in die Suche integriert — häufige und wichtige Erinnerungen ranken höher. |
| Stufenverwaltung | Dreistufiges System (Core → Working → Peripheral) mit automatischer Beförderung/Herabstufung. |
Feedback: GitHub Issues · Zurücksetzen: npm i memory-lancedb-pro@latest
| Paket | Zweck |
|---|---|
@lancedb/lancedb ≥0.26.2 |
Vektordatenbank (ANN + FTS) |
openai ≥6.21.0 |
OpenAI-kompatibler Embedding-API-Client |
@sinclair/typebox 0.34.48 |
JSON-Schema-Typdefinitionen |
Full list: Contributors
MIT