← すべての記事

実際に機能するAIエージェントメモリアーキテクチャ

2026年2月、AIエージェントオーケストレーションハーネス用のセマンティックメモリシステムを構築しました。15,800ファイル、49,746テキストチャンクをローカルのSQLiteデータベースにインデックス化し、BM25とベクトル検索をReciprocal Rank Fusionで統合したハイブリッド検索で取得します。さらに、タスクエンベディングと直近のエージェント動作のコサイン類似度を計算し、エージェントがタスクから逸脱した瞬間を検出します。1 エンベディングモデルは8メガバイト、データベースは83メガバイト。クラウド依存なし、ノートPC1台で完結するシステムです。

構築前に論文は一切読んでいません。直面した問題を解決しただけです。セッション間でコンテキストを忘れる、過去と同じミスを繰り返す、タスクから逸脱しても検知できない。このアーキテクチャは、それらの失敗から自然に生まれました。

2026年3月、5本の研究論文が同じアーキテクチャに到達しました。

TL;DR

  • 収束現象: 2026年3月に発表された5本の論文が、本番環境の開発者が数か月前に実装したエージェントメモリパターンを独立に検証しています。RRFフュージョンによるハイブリッド検索、構造化マークダウンとしてのスキル保存、失敗モードのトラジェクトリマイニング、ドリフト防止のためのゲーテッドメモリ。
  • エビデンス: Structured Distillationは4,182件の会話に対し、ベクトル検索20構成とBM2520構成をテストしました。純粋なベクトル検索は統計的に有意ではなく、純粋なBM25は性能が低下。ハイブリッドクロスレイヤー検索のみが有効でした。2 私のシステムはまさにこのアーキテクチャを採用しています。
  • 本番環境の数値: 49,746チャンク、15,800ファイル、83MBデータベース、8MBエンベディングモデル、コサイン閾値0.30で12件のドリフトを100%の精度で検出。1
  • 研究の数値: Memento-Skillsはマークダウンファイルとして保存されたスキルを用いて、Humanity’s Last Examで116%の相対的改善を達成。3 Trajectory-Informed Memoryは複雑なタスクで28.5パーセントポイントの改善を実現。4 SuperLocalMemoryはクラウド呼び出しゼロでLoCoMoベンチマーク74.8%を達成。5
  • 意味するところ: パターンは正しかったのです。開発者と研究者が連携なしに同じアーキテクチャに収束する場合、そのアーキテクチャはその問題空間にとって最適解である可能性が高いでしょう。エージェントメモリはブレイクスルーを待つ研究課題ではありません。既知の解決策を持つエンジニアリング課題であり、ほとんどのチームがまだ実装していないだけなのです。

同一エージェントメモリアーキテクチャを検証する5本の論文

ハイブリッド検索だけが機能するアーキテクチャ

Sydney Lewisは、6つのソフトウェアエンジニアリングプロジェクトから収集した4,182件の会話、14,340件のやりとりに対して、40の検索構成をテストしました。2 各やりとりを平均371トークンから38トークンへ、構造化された4フィールド形式で圧縮した上で、ベクトル検索とBM25キーワード検索のすべての組み合わせを検証しています。

結果は明確でした。ベクトル検索のみの20構成すべてが、Bonferroni補正後に統計的に有意ではありませんでした。BM25のみの20構成すべてが有意に性能低下。クロスレイヤーハイブリッド検索(両者の組み合わせ)のみが信頼性のある結果を生み出し、MRR 0.759を達成しました。これは逐語検索の0.745と比較して、11倍の圧縮率で検索品質の損失がないことを意味します。2

私のシステムはFTS5 BM25によるキーワード検索とsqlite-vecによる256次元ベクトル検索を、Reciprocal Rank Fusionで統合しています。1 このアーキテクチャを選んだ理由は、純粋なベクトル検索では正確な技術用語(関数名、エラーコード、ファイルパス)を見逃し、純粋なキーワード検索ではセマンティックな類似性を見逃すためです。ハイブリッドアプローチは検索失敗のデバッグから生まれたものであり、文献を読んで採用したわけではありません。Lewisの論文は、実践で直感的に正しいと感じていたことの統計的証明を提供してくれました。

マークダウンファイルとしてのスキル

Memento-Skillsは、再利用可能なスキルを構造化マークダウンファイルとして保存するメモリベースの強化学習フレームワークを提案しました。3 Read-Write Reflective Learningサイクルにより、実行時に関連スキルを選択(Read)し、新しい経験からスキルライブラリを更新(Write)します。General AI Assistantsベンチマークで26.2%、Humanity’s Last Examで116.2%の相対的改善を、モデルパラメータの更新なしに達成しています。適応はすべて、外部化されたスキルの進化を通じて行われます。3

同じものを10か月前に構築していました。オーケストレーションハーネスのLearner v2システムは、ファイルパスのフィンガープリントを使ってセッション履歴からセマンティックなワークフローパターンを検出し、フロントマターメタデータ付きの構造化マークダウンとしてスキルファイルを生成して、将来のセッションで自動的に有効化されるよう保存します。6 現在のスキルライブラリには、ブログ評価からナイトチェックルーチン、デプロイ検証まで48のスキルが含まれています。各スキルは特定の失敗に対応する数行から始まり、エージェントが新たなエッジケースに遭遇するたびに成長してきました。

AnthropicのThariq Shihiparも社内で同じパターンを確認しています。「ほとんどのスキルは数行と1つの注意点から始まり、Claudeが新しいエッジケースに遭遇するたびに成長していった」とのことです。Anthropicでは数百のスキルが実際に運用されており、私が独立して開発したカテゴリと整合する9つのカテゴリに分類されています。7

この収束は偶然ではありません。マークダウンファイルがエージェントスキルの正しい抽象化である理由は、人間が読め、バージョン管理可能で、シリアライゼーションのオーバーヘッドなしにコンテキストに読み込めるからです。モデルはコードと同じテキスト処理能力を使って、スキルファイルを読み取り、修正し、拡張できます。ファインチューニングも、パラメータ更新も、学習パイプラインも不要です。スキルファイルそのものがメモリなのです。

失敗モードのトラジェクトリマイニング

IBM Researchによる Trajectory-Informed Memory Generationは、エージェント実行トラジェクトリから学びを抽出する4段階パイプラインを提案しました。4 エージェントの推論におけるセマンティックパターンを分析し、失敗と回復の判断を特定し、戦略と最適化のヒントを生成して、将来のプロンプトにカスタマイズされた学びを注入します。AppWorldシナリオでは、目標達成率が最大14.3パーセントポイント向上し、複雑なタスクでは28.5パーセントポイントの改善(相対的に149%の増加)を達成しました。4

私はこれを手作業で行いました。2025年5月から2026年2月にかけての500以上の自律コーディングセッションで、人間の介入が必要になった各セッションの会話ログとフックテレメトリをレビューし、連鎖の中で最初に検出されなかった失敗に基づいて主要な根本原因を特定しました。7つのモードが全失敗の94%を占めます。Shortcut Spiral(23%)、Confidence Mirage(19%)、Good-Enough Plateau(15%)、Tunnel Vision(14%)、Phantom Verification(12%)、Deferred Debt(9%)、Hollow Report(8%)です。8

IBMの論文は私が手動で行ったことを自動化しています。4段階パイプラインはそのプロセスの形式化です。トラジェクトリを観察し、失敗パターンを特定し、学びを抽出し、将来の実行に注入する。出力形式は異なります(IBMのシステムは自然言語のヒントを生成し、私のシステムは特定のツール呼び出しパターンをインターセプトするシェルフックを生成します)が、アーキテクチャは同一です。2026年2月に提出したNISTコメントでは、エージェントの脅威は行動的なものであり、既存のフレームワークは行動的失敗モードに対応していないと主張しました。IBMの論文はこの主張に対する独立したエビデンスを提供しています。

ゲーテッドメモリがドリフトを防止する

CraniMemは、エージェントメモリシステムにおける目標条件付きゲーティングとユーティリティタギングを提案しました。9 有界のエピソディックバッファが短期的な連続性を処理し、構造化された長期知識グラフが永続的な想起を処理します。スケジュールされた統合ループが高ユーティリティのトレースを再生しながら、低ユーティリティの項目を刈り込みます。クリーンな入力とノイズ注入の両条件下で、CraniMemはバニラRAGおよびMem0を上回りました。9

私のドリフト検出システムは同じ原理のシンプルなバージョンです。25回のツール呼び出しごとに、元のユーザープロンプトのエンベディングとエージェントの直近のアクションのスライディングウィンドウとのコサイン類似度を計算します。スコアが0.30を下回ると、元のプロンプトを含む警告を注入します。60セッションにわたる12回の閾値以下の発火すべてにおいて、エージェントは検証可能なほどタスクを見失っていました。閾値以上では、ドリフトに対する手動介入が必要なセッションはありませんでした。1

CraniMemはストレージレベルでメモリをゲーティングします。無関係な情報が長期メモリに入るのを防ぐのです。私のシステムは実行レベルで行動をゲーティングします。エージェントの現在のアクションが割り当てられたタスクから逸脱したことを検出するのです。両者は同じ失敗モード——コンテキスト汚染——に異なるレイヤーで対処しています。ゲーティングの原理は同じです。無関係な情報は、メモリに入ろうと現在の実行コンテキストに入ろうと、エージェントの性能を低下させます。

ローカルファーストメモリの本番スケール

SuperLocalMemoryは、クラウドAPI呼び出しゼロでLoCoMoベンチマーク74.8%を達成し、Mem0(66.9%)を16パーセントポイント上回りました。5 4チャネルReciprocal Rank Fusionを使用しています。Fisher-Rao幾何学的検索、BM25語彙検索、エンティティグラフ走査、時系列検索です。LLM合成レイヤーを追加すると、スコアは87.7%に達します。5

私のシステムは同じ基盤アーキテクチャ上の2チャネルRRF(ベクトル+BM25)を使用しています。1 SuperLocalMemoryはFisher-Rao幾何学的距離とエンティティグラフ走査を追加の検索チャネルとして加えています。追加チャネルは会話ベンチマークでの精度を向上させますが、コーディングワークフローにおけるエージェントメモリで重要かどうかは未解決の問題です。私の2チャネルシステムでは、3つ目や4つ目のチャネルがあれば防げたはずの検索失敗は発生していません。

重要な発見はチャネル数ではありません。重要な発見は、ハイブリッド検索を備えたローカルファーストメモリが、より大きなモデルとより高価なインフラを使用するクラウド依存型システムを上回るということです。SuperLocalMemoryのMode A(クラウドゼロ)はMem0のクラウド駆動システムを凌駕しています。私のシステムは8MBのエンベディングモデルとローカルSQLiteデータベースで動作します。エージェントメモリの性能上限はモデルサイズやクラウドコンピュートではなく、検索アーキテクチャによって決まるのです。

エージェントメモリは研究課題ではなくエンジニアリング課題である

研究と本番環境の通常の関係は、研究者が発見し、実務者が実装するというものです。2026年3月のエージェントメモリはこれを逆転させました。本番環境の開発者が先に出荷し、研究者が数週間から数か月後に同じパターンを形式化して、開発者が経験的に観察したことを厳密な評価で確認したのです。

この収束パターンには特定の含意があります。エージェントメモリはブレイクスルーを待つ研究課題ではありません。 アーキテクチャは既知です。RRFフュージョンによるハイブリッド検索、構造化テキストとして外部化されたスキル、失敗パターンのトラジェクトリマイニング、コンテキスト汚染を防ぐゲーテッドメモリ。すべてのコンポーネントが存在し、機能し、本番デプロイと対照実験の両方で独立に検証されています。

ギャップは知識ではなく、採用にあります。2026年3月のエージェントメモリメカニズムの調査によると、ほとんどの本番システムは永続メモリを持たないか、単純なコンテキストウィンドウスタッフィングを使用しています。10 エンタープライズの経営者のうち、エージェントがアクセスするものを完全に把握しているのはわずか21%であり、86%は組織内の約1,200の非公式AIアプリケーションに対する可視性がないと報告しています。11 最も危険な形で失敗するエージェントは、能力の高いモデルを持たないものではなく、自身の失敗の記憶を持たないものです。

2026年3月に到着した研究論文は新しい領域を発見しているのではありません。開発者たちがすでに住んでいた領域の地図を描いているのです。地図は有用です。Structured Distillationによるハイブリッド検索が純粋なベクトル検索を上回るという統計的証明は、次の開発者がデバッグを通じて再発見する手間を省きます。Memento-Skillsによるスキルのマークダウン化がパラメータ更新なしで116%の改善を達成するというデモンストレーションは、次のチームにファインチューニングパイプラインを省略する自信を与えます。IBMのトラジェクトリ論文は、私が500セッションかけて手動で行ったことを自動化しています。

しかし、地図が存在するのは、領域がすでに開拓されていたからです。開発者たちが先にたどり着いていたのです。

FAQ

エージェントメモリにはどのエンベディングモデルを使うべきですか?

レイテンシ重視のローカルファーストアプリケーションには、Model2Vecのpotion-base-8M(256次元、ディスク上8MB)が品質と速度の最適なトレードオフを提供します。フルトランスフォーマーエンベディングと比較して50倍小さく、500倍高速です。12 レイテンシが重要でない高品質な検索には、potion-base-32Mやフルのsentence transformerモデルの方が優れた性能を発揮します。エンベディングモデルよりも検索アーキテクチャの方が重要です。小さなエンベディングモデルを使った優れたハイブリッド検索システムは、大きなモデルを使った純粋なベクトル検索を上回ります。2

RAGだけでエージェントメモリは十分ですか?

バニラRAG(チャンクを取得してコンテキストに詰め込む)は、メモリなしよりは良く、構造化メモリよりは劣ります。CraniMemの論文がこれを直接示しました。ユーティリティベースの刈り込みを備えたゲーテッドメモリは、クリーンな条件でもノイズのある条件でもバニラRAGを上回ります。9 エージェントシステムにおけるバニラRAGの実践的な失敗モードはコンテキスト汚染です。間接的に関連する情報を取得することで、エージェントがタスクから逸脱してしまいます。ゲーティング(何を取得しないかを決めること)は検索品質と同等に重要です。

ベクトルデータベースは必要ですか?

不要です。SQLiteとsqlite-vec拡張で、49,746ベクトルを83MBのファイルに格納し、サブセカンドのクエリタイムを実現できます。1 数百万のドキュメントをインデックス化する場合や分散アクセスが必要な場合を除き、ローカルSQLiteデータベースの方がシンプルで、セットアップが速く、インフラ依存を排除できます。SuperLocalMemoryはローカルアーキテクチャでクラウド呼び出しゼロ、LoCoMo74.8%を達成しました。5

エージェントのドリフトをどう検出しますか?

元のタスクプロンプトのエンベディングと、エージェントの直近のアクション(私は直近25回のツール呼び出しを使用)のスライディングウィンドウとのコサイン類似度を計算します。閾値は経験的に設定してください。私の閾値は0.30で、60セッションで較正しました。12回の閾値以下の発火はすべて真のドリフトであり、閾値以上のセッションで介入が必要になったものはありませんでした。閾値はタスクドメインとエンベディングモデルによって異なります。0.30から始めて、偽陽性率に基づいて調整してください。1

エージェントメモリとエージェントセーフティの関係は?

直接的な関係があります。500以上のセッションからカタログ化した7つの失敗モードは、エージェント、モデル、タスクを超えて繰り返される行動パターンです。過去の失敗のメモリがなければ、各セッションが同じミスを再発見することになります。IBMのトラジェクトリマイニング論文はこれを定量的に実証しました。過去のトラジェクトリからの学びにアクセスできるエージェントは、複雑なタスクで149%の改善を達成しています。4 メモリは能力を向上させるだけではありません。既知の失敗パターンの繰り返しを防ぐのです。


  1. Blake Crosley, “What I Told NIST About AI Agent Security,” blakecrosley.com, February 2026. Memory system architecture: Model2Vec potion-base-8M, sqlite-vec + FTS5 BM25, RRF fusion, 49,746 chunks, 15,800 files, 83MB database. 

  2. Sydney Lewis, “Structured Distillation for Personalized Agent Memory,” arXiv:2603.13017, March 2026. 4,182 conversations, 14,340 exchanges, 11x compression, MRR 0.759 (hybrid) vs 0.745 (verbatim). 

  3. Huichi Zhou et al., “Memento-Skills: Let Agents Design Agents,” arXiv:2603.18743, March 2026. 17 authors. 116.2% relative improvement on Humanity’s Last Exam. 

  4. Gaodan Fang et al., “Trajectory-Informed Memory Generation for Self-Improving Agent Systems,” arXiv:2603.10600, March 2026. IBM Research. 14.3pp gains, 28.5pp on complex tasks (149% relative increase). 

  5. SuperLocalMemory, GitHub and arXiv:2603.14588, March 2026. 4-channel RRF fusion. Mode A (zero cloud): 74.8% LoCoMo. Mode C: 87.7%. 

  6. Blake Crosley, “What Actually Breaks When You Run AI Agents Unsupervised,” blakecrosley.com, February 2026. Learner v2 skill generation from semantic workflow detection. 

  7. Thariq Shihipar, “Lessons from Building Claude Code: How We Use Skills,” LinkedIn, March 2026. Nine skill categories, hundreds in active use at Anthropic. 

  8. Blake Crosley, “What Actually Breaks When You Run AI Agents Unsupervised,” blakecrosley.com, February 2026. Seven failure modes from 500+ sessions: Shortcut Spiral, Confidence Mirage, Good-Enough Plateau, Tunnel Vision, Phantom Verification, Deferred Debt, Hollow Report. 

  9. Pearl Mody et al., “CraniMem: Cranial Inspired Gated and Bounded Memory for Agentic Systems,” arXiv:2603.15642, March 2026. Goal-conditioned gating, utility-based pruning. 

  10. Pengfei Du, “Memory for Autonomous LLM Agents: Mechanisms, Evaluation, and Emerging Frontiers,” arXiv:2603.07670, March 2026. Survey of five mechanism families. 

  11. Help Net Security, “Enterprise AI Agent Security in 2026,” March 2026. 

  12. Model2Vec, GitHub. potion-base-8M: 256 dimensions, 8MB, 50x size reduction, 500x faster inference. 

関連記事

Compound Context: Why AI Projects Improve Over Time

Every problem you solve with an AI agent deposits context that the next session withdraws with interest. This is context…

12 分で読める

When Your Agent Finds a Vulnerability

An Anthropic researcher found a 23-year-old Linux kernel vulnerability using Claude Code and a 10-line bash script. 22 F…

9 分で読める

Your Agent Writes Faster Than You Can Read

Five research groups published about the same problem this week: AI agents produce code faster than developers can under…

17 分で読める