次に必要なのは「記憶の設計」である
ここまでをまとめると、LLMは記憶する存在ではなく、記憶しているように見せるには外部化された状態管理が必要です。コンテキストウィンドウは作業メモリであって、長期記憶ではありません。RAGは取得手段であって、記憶そのものではありません。RAGは、必要な情報にその都度アクセスするための仕組みとして有効です。しかし、前回の対応結果や、どの説明が有効だったかといった経験そのものを蓄積し、次に活かす仕組みではありません。企業でAIが「検索はできるが、賢くなっていかない」と感じられるのは、この差が大きいからです。そして長い履歴は、そのまま放置するとPoisoning、Distraction、Confusion、Clashを通じて汚れていきます。連載第1回の本記事では、モデルの性能競争そのものではなく、この「忘却」と「文脈劣化」の構造について見てきました。
では、何を"記憶"として別途設計すべきなのでしょうか。毎回の会話を全部持ち続けるのではなく、どの事実を保存し、どの経験を要約し、どのルールを手続きとして残し、どのタイミングで更新し、何を忘れさせるべきなのか。次回は、この問いをさらに掘り下げます。メモリエンジニアリングを、単なるベクトル検索やメモ保存ではなく、保存・想起・更新・忘却のライフサイクルを設計する実装論として捉え直し、長期記憶や手続き記憶をどうシステムに埋め込むべきかを整理します。
この記事は参考になりましたか?
- この記事の著者
-
小川 航平(オガワ コウヘイ)
日本オラクル株式会社 Principal AI Data Software Solution Developer。データ分析基盤と生成AI領域を中心に、構想段階の課題を技術要件へ落とし込み、プロトタイピングから実装、導入までを横断して担う。OCIのAI Agent、AI Database、Mult...
※プロフィールは、執筆時点、または直近の記事の寄稿時点での内容です
この記事は参考になりましたか?
この記事をシェア
