永続メモリ
AIエージェントがセッションをまたいで記憶を保持する仕組み。通常のチャットボットは会話が終わると記憶を失うが、永続メモリを持つエージェントは過去の会話や学習内容を次回以降も参照できる。
実装方法
ファイルベース
日々の会話を日次ファイル(例: memory/2026-01-22.md)に記録する。moltbotがこの方式を採用している。
データベース型
構造化されたデータベースに記憶を保存。検索性が高く、大量の記憶を効率的に管理できる。
ベクトルDB型
会話内容をベクトル化し、意味的に類似した記憶を検索可能にする。RAG(Retrieval-Augmented Generation)と組み合わせることで、関連する過去の記憶を自動的に参照できる。
記憶の種類
| 種類 | 内容 | 例 |
|---|---|---|
| 事実記憶 | ユーザーに関する情報 | 「金曜に会議がある」「Pythonが好き」 |
| エピソード記憶 | 過去の会話・やり取り | 「前回のデバッグで〇〇が原因だった」 |
| 手続き記憶 | 学習した方法・パターン | 「このプロジェクトではESLintのこの設定を使う」 |
| 意思決定記憶 | なぜその選択をしたか | 「〇〇の理由でReactを採用した」 |
バージョン管理
永続メモリをGit管理することで、以下が可能になる:
- 巻き戻し: エージェントが間違った学習をした場合に
git revertで修正 - 差分確認:
git diffでエージェントが何を学習したか確認 - ブランチ実験: 異なる人格や学習内容を試す
これは「AIの学習を人間がコントロールできる」という点で画期的。
利点
1. コンテキストの継続
「前回話したあれ」「いつものやり方で」といった曖昧な指示でも、エージェントが理解できる。
2. パーソナライゼーション
ユーザーの好み、価値観、判断基準を学習し、提案の質が向上する。
3. 効率化
毎回同じ説明をする必要がなくなり、コミュニケーションコストが下がる。
課題
プライバシー
記憶が永続化されるということは、機密情報も残る可能性がある。ローカルファーストAIであれば自分で管理できるが、クラウド型では注意が必要。
記憶の肥大化
記憶が増え続けると、検索や参照のコストが増大する。定期的な整理や、重要度に基づく記憶の取捨選択が必要。
誤学習
間違った情報を記憶してしまうと、それが永続化される。Git管理や明示的な修正機能が重要。
具体例
moltbotの実装:
~/molt/memory/
├── 2026-01-20.md
├── 2026-01-21.md
└── 2026-01-22.md
各ファイルには会話内容、実行したタスク、学んだことが記録される。次回以降、エージェントはこれらのファイルを参照して応答する。
関連
- パーソナルAIアシスタント
- 自己増殖AIエージェント
- Agent Workspace
- AIエージェントのコンテキスト設計
- ローカルファーストAI
- 双方向連携 - AIと人間の知識共有パターン