← 모든 글

실제로 작동하는 AI 에이전트 메모리 아키텍처

2026년 2월, AI 에이전트 오케스트레이션 하네스를 위한 시맨틱 메모리 시스템을 구축했어요. 이 시스템은 15,800개 파일에서 49,746개의 텍스트 청크를 로컬 SQLite 데이터베이스에 인덱싱하고, Reciprocal Rank Fusion으로 결합된 하이브리드 BM25 및 벡터 검색을 통해 검색하며, 태스크 임베딩과 최근 에이전트 동작 간의 코사인 유사도를 활용해 에이전트가 태스크에서 벗어나는 시점을 감지해요.1 임베딩 모델은 8메가바이트이고, 데이터베이스는 83메가바이트예요. 전체 시스템이 클라우드 의존성 없이 노트북에서 실행돼요.

논문을 읽고 만든 게 아니에요. 직면한 문제를 해결한 거예요. 에이전트가 세션 간 컨텍스트를 잊어버리고, 이전에 저질렀던 실수를 반복하며, 감지 없이 태스크에서 벗어나는 문제였어요. 이러한 실패에서 아키텍처가 탄생했어요.

2026년 3월, 다섯 편의 연구 논문이 동일한 아키텍처에 도달했어요.

TL;DR

  • 수렴 현상: 2026년 3월에 발표된 다섯 편의 논문이 프로덕션 빌더들이 몇 달 전에 이미 출시한 동일한 에이전트 메모리 패턴을 독립적으로 검증했어요. RRF 퓨전을 활용한 하이브리드 검색, 구조화된 마크다운으로 저장된 스킬, 실패 모드를 위한 트라젝토리 마이닝, 드리프트를 방지하는 게이트 메모리까지.
  • 근거: Structured Distillation은 4,182개의 대화에서 20개의 벡터 검색 구성과 20개의 BM25 구성을 테스트했어요. 순수 벡터 검색은 통계적으로 유의하지 않았고, 순수 BM25는 성능이 저하됐어요. 하이브리드 크로스레이어 검색만이 작동했어요.2 제 시스템이 정확히 이 아키텍처를 사용하고 있어요.
  • 프로덕션 수치: 49,746개 청크, 15,800개 파일, 83MB 데이터베이스, 8MB 임베딩 모델, 코사인 임계값 0.30에서 12건의 드리프트 사건을 100% 정밀도로 감지.1
  • 연구 수치: Memento-Skills는 마크다운 파일로 저장된 스킬을 사용해 Humanity’s Last Exam에서 116%의 상대적 개선을 달성했어요.3 Trajectory-Informed Memory는 복잡한 태스크에서 28.5 퍼센트 포인트 향상을 달성했어요.4 SuperLocalMemory는 클라우드 호출 없이 LoCoMo에서 74.8%를 달성했어요.5
  • 이것이 의미하는 바: 패턴이 맞았어요. 빌더와 연구자가 조율 없이 동일한 아키텍처에 수렴할 때, 해당 아키텍처는 그 문제 영역에 최적일 가능성이 높아요. 에이전트 메모리는 획기적인 돌파구를 기다리는 연구 문제가 아니에요. 대부분의 팀이 아직 구현하지 않은, 알려진 솔루션을 가진 엔지니어링 문제예요.

동일한 에이전트 메모리 아키텍처를 검증한 다섯 편의 논문

하이브리드 검색만이 유일하게 작동하는 아키텍처

Sydney Lewis는 6개 소프트웨어 엔지니어링 프로젝트에서 14,340개의 교환을 포함한 4,182개의 대화를 대상으로 40개의 검색 구성을 테스트했어요.2 이 연구는 각 교환을 평균 371토큰에서 구조화된 4필드 형식을 사용해 38토큰으로 압축한 뒤, 벡터 검색과 BM25 키워드 검색의 모든 조합을 테스트했어요.

결과는 명확했어요. 20개의 벡터 전용 구성 모두 Bonferroni 보정 후 통계적으로 유의하지 않았어요. 20개의 BM25 전용 구성 모두 유의하게 저하됐어요. 크로스레이어 하이브리드 검색(두 가지를 결합한 방식)만이 신뢰할 수 있는 결과를 만들어냈고, 축어적 검색의 MRR 0.745 대비 MRR 0.759를 달성했어요 — 검색 품질 손실 없이 11배 압축한 셈이에요.2

제 시스템은 키워드 검색에 FTS5 BM25를, 256차원 벡터 검색에 sqlite-vec를 사용하고, Reciprocal Rank Fusion으로 결합해요.1 이 아키텍처를 선택한 이유는 순수 벡터 검색이 정확한 기술 용어(함수명, 에러 코드, 파일 경로)를 놓치고, 순수 키워드 검색이 의미적 유사성을 놓쳤기 때문이에요. 하이브리드 접근법은 문헌을 읽어서가 아니라 검색 실패를 디버깅하면서 자연스럽게 나타났어요. Lewis의 논문은 실무에서 당연하게 느껴졌던 것에 대한 통계적 증명을 제공해요.

마크다운 파일로서의 스킬

Memento-Skills는 재사용 가능한 스킬을 구조화된 마크다운 파일로 저장하는 메모리 기반 강화 학습 프레임워크를 도입했어요.3 Read-Write Reflective Learning 사이클이 실행 중 관련 스킬을 선택하고(Read), 새로운 경험으로 스킬 라이브러리를 업데이트해요(Write). 이 시스템은 General AI Assistants 벤치마크에서 26.2%의 상대적 개선을, Humanity’s Last Exam에서 116.2%의 상대적 개선을 달성했으며, 모델 파라미터 업데이트 없이 이뤄졌어요. 적응은 전적으로 외부화된 스킬의 진화를 통해 이루어져요.3

10개월 전에 동일한 것을 구축했어요. 오케스트레이션 하네스의 Learner v2 시스템은 파일 경로 핑거프린트를 사용해 세션 히스토리에서 시맨틱 워크플로우 패턴을 감지하고, 프론트매터 메타데이터가 포함된 구조화된 마크다운으로 스킬 파일을 생성하며, 향후 세션에서 자동 활성화되도록 저장해요.6 현재 스킬 라이브러리에는 블로그 평가부터 야간 점검 루틴, 배포 검증에 이르기까지 48개의 스킬이 있어요. 각 스킬은 특정 실패를 해결하는 몇 줄의 코드로 시작해서 에이전트가 새로운 엣지 케이스를 만날 때마다 성장했어요.

Anthropic의 Thariq Shihipar도 같은 패턴을 내부적으로 확인했어요: “대부분의 스킬은 몇 줄의 코드와 하나의 함정에서 시작했고, Claude가 새로운 엣지 케이스에 부딪히면서 성장했습니다.” Anthropic는 수백 개의 스킬을 활발히 사용하고 있으며, 제가 독립적으로 개발한 카테고리와 정확히 매핑되는 9개의 카테고리로 분류돼 있어요.7

이 수렴은 우연이 아니에요. 마크다운 파일이 에이전트 스킬에 적합한 추상화인 이유는 사람이 읽을 수 있고, 버전 관리가 가능하며, 직렬화 오버헤드 없이 컨텍스트에 로드할 수 있기 때문이에요. 모델은 코드를 처리할 때와 동일한 텍스트 처리 능력으로 스킬 파일을 읽고, 수정하고, 확장할 수 있어요. 파인튜닝도, 파라미터 업데이트도, 학습 파이프라인도 필요 없어요. 스킬 파일이 곧 메모리예요.

실패 모드를 위한 트라젝토리 마이닝

IBM Research의 Trajectory-Informed Memory Generation은 에이전트 실행 트라젝토리에서 학습 내용을 추출하는 4단계 파이프라인을 도입했어요.4 이 시스템은 에이전트 추론의 시맨틱 패턴을 분석하고, 실패 및 복구 결정을 식별하며, 전략과 최적화 팁을 생성하고, 맞춤형 학습 내용을 향후 프롬프트에 주입해요. AppWorld 시나리오에서 목표 달성률이 최대 14.3 퍼센트 포인트 향상되었고, 복잡한 태스크에서는 28.5 퍼센트 포인트 향상 — 149%의 상대적 증가를 보였어요.4

저는 이 작업을 수동으로 했어요. 2025년 5월부터 2026년 2월까지 500회 이상의 자율 코딩 세션에서, 인간 개입이 필요했던 각 세션의 대화 로그와 훅 텔레메트리를 검토하고, 체인에서 최초로 감지되지 않은 실패를 기반으로 주요 근본 원인을 귀속했어요. 7가지 모드가 전체 실패의 94%를 설명해요: Shortcut Spiral(23%), Confidence Mirage(19%), Good-Enough Plateau(15%), Tunnel Vision(14%), Phantom Verification(12%), Deferred Debt(9%), Hollow Report(8%).8

IBM 논문은 제가 수동으로 했던 것을 자동화한 거예요. 그들의 4단계 파이프라인은 이 프로세스의 형식화예요: 트라젝토리를 관찰하고, 실패 패턴을 식별하고, 학습 내용을 추출하고, 향후 실행에 주입하는 것. 출력 형식은 달라요(그들의 시스템은 자연어 팁을 생성하고, 제 시스템은 특정 도구 호출 패턴을 가로채는 셸 훅을 생성해요). 하지만 아키텍처는 동일해요. 2026년 2월에 제출한 NIST 코멘트에서 에이전트 위협은 행동적이며, 기존 프레임워크가 행동적 실패 모드를 다루지 못한다고 주장했어요. IBM 논문은 동일한 논제에 대한 독립적 근거를 제공해요.

게이트 메모리가 드리프트를 방지한다

CraniMem은 에이전트 메모리 시스템을 위한 목표 조건부 게이팅과 유틸리티 태깅을 도입했어요.9 제한된 에피소드 버퍼가 단기 연속성을 처리하고, 구조화된 장기 지식 그래프가 지속적인 회상을 처리해요. 예약된 통합 루프가 높은 유틸리티의 트레이스를 리플레이하면서 낮은 유틸리티 항목을 정리해요. 깨끗한 입력과 주입된 노이즈 모두에서 CraniMem은 바닐라 RAG와 Mem0를 능가했어요.9

제 드리프트 감지 시스템은 동일한 원리의 더 간단한 버전이에요. 25번의 도구 호출마다 감지기가 원래 사용자 프롬프트의 임베딩과 에이전트의 최근 동작의 슬라이딩 윈도우 간의 코사인 유사도를 계산해요. 점수가 0.30 아래로 떨어지면, 시스템이 원래 프롬프트를 포함한 경고를 주입해요. 60개 세션에서 임계값 이하로 발동된 12건 모두, 에이전트가 검증 가능하게 태스크를 잃어버린 상태였어요. 임계값 이상에서는 드리프트로 인한 수동 개입이 필요한 세션이 없었어요.1

CraniMem은 저장 수준에서 메모리를 게이팅해요: 관련 없는 정보가 장기 메모리에 들어가는 것을 방지해요. 제 시스템은 실행 수준에서 행동을 게이팅해요: 에이전트의 현재 동작이 할당된 태스크에서 벗어나는 시점을 감지해요. 둘 다 동일한 실패 모드 — 컨텍스트 오염 — 를 서로 다른 레이어에서 해결해요. 게이팅 원리는 동일해요. 관련 없는 정보는 메모리에 들어가든 현재 실행 컨텍스트에 들어가든 에이전트 성능을 저하시켜요.

프로덕션 규모의 로컬 퍼스트 메모리

SuperLocalMemory는 클라우드 API 호출 없이 LoCoMo 벤치마크에서 74.8%를 달성해 Mem0(66.9%)를 16 퍼센트 포인트 앞섰어요.5 이 시스템은 4채널 Reciprocal Rank Fusion을 사용해요: Fisher-Rao 기하학적 검색, BM25 어휘 검색, 엔티티 그래프 탐색, 시간적 검색. LLM 합성 레이어를 추가하면 점수가 87.7%에 도달해요.5

제 시스템은 동일한 기반 아키텍처에서 2채널 RRF(벡터 + BM25)를 사용해요.1 SuperLocalMemory는 Fisher-Rao 기하학적 거리와 엔티티 그래프 탐색을 추가 검색 채널로 더해요. 추가 채널은 대화형 벤치마크에서 정확도를 개선해요. 코딩 워크플로우의 에이전트 메모리에서도 의미가 있는지는 열린 질문이에요 — 제 2채널 시스템에서 3번째나 4번째 채널이 잡아냈을 검색 실패는 발생하지 않았어요.

중요한 발견은 특정 채널 수가 아니에요. 중요한 발견은 하이브리드 검색을 갖춘 로컬 퍼스트 메모리가 더 큰 모델과 더 비싼 인프라를 사용하는 클라우드 의존 시스템을 능가한다는 거예요. SuperLocalMemory의 Mode A(제로 클라우드)가 Mem0의 클라우드 기반 시스템을 이겨요. 제 시스템은 로컬 SQLite 데이터베이스에서 8MB 임베딩 모델로 실행돼요. 에이전트 메모리의 성능 상한은 모델 크기나 클라우드 컴퓨팅에 의해 결정되지 않아요. 검색 아키텍처에 의해 결정돼요.

에이전트 메모리는 연구 문제가 아닌 엔지니어링 문제

연구와 프로덕션의 일반적인 관계는 연구자가 발견하고 실무자가 구현하는 거예요. 2026년 3월의 에이전트 메모리는 이 순서를 뒤집었어요. 프로덕션 빌더가 먼저 출시했어요. 연구자들은 몇 주 또는 몇 달 뒤에 동일한 패턴을 형식화했고, 빌더들이 경험적으로 관찰한 것을 엄밀한 평가로 확인했어요.

이 수렴 패턴에는 구체적인 함의가 있어요: 에이전트 메모리는 획기적인 돌파구를 기다리는 연구 문제가 아니에요. 아키텍처는 알려져 있어요. RRF 퓨전을 활용한 하이브리드 검색. 구조화된 텍스트로 외부화된 스킬. 실패 패턴을 위한 트라젝토리 마이닝. 컨텍스트 오염을 방지하는 게이트 메모리. 모든 구성 요소가 존재하고, 작동하며, 프로덕션 배포와 통제된 연구 모두에 의해 독립적으로 검증됐어요.

격차는 지식이 아니에요. 격차는 도입이에요. 2026년 3월의 에이전트 메모리 메커니즘 서베이에 따르면, 대부분의 프로덕션 시스템은 여전히 영구 메모리를 사용하지 않거나 단순한 컨텍스트 윈도우 스터핑을 사용하고 있어요.10 기업 임원의 21%만이 에이전트가 접근하는 대상에 대한 완전한 가시성을 갖고 있으며, 86%는 조직 내 약 1,200개의 비공식 AI 애플리케이션에 대한 가시성이 전혀 없다고 보고해요.11 가장 위험하게 실패하는 에이전트는 유능한 모델이 없는 에이전트가 아니에요. 자신의 실패에 대한 메모리가 없는 에이전트예요.

2026년 3월에 도착한 연구 논문들은 새로운 영역을 발견하는 것이 아니에요. 빌더들이 이미 살고 있던 영역의 지도를 그리는 거예요. 지도는 유용해요. Structured Distillation의 하이브리드 검색이 순수 벡터 검색을 능가한다는 통계적 증명은 다음 빌더가 디버깅을 통해 이를 재발견하는 수고를 덜어줘요. Memento-Skills의 마크다운 기반 스킬이 파라미터 업데이트 없이 116% 개선을 달성한다는 시연은 다음 팀에게 파인튜닝 파이프라인을 건너뛸 자신감을 줘요. IBM 트라젝토리 논문은 제가 500개 세션에 걸쳐 수동으로 했던 작업을 자동화해요.

하지만 지도가 존재하는 이유는 영역이 이미 개척되었기 때문이에요. 빌더들이 먼저 도착했어요.

FAQ

에이전트 메모리에 어떤 임베딩 모델을 사용해야 할까요?

지연 시간에 민감한 로컬 퍼스트 애플리케이션에는 Model2Vec의 potion-base-8M(256차원, 디스크 8MB)이 품질과 속도 사이의 최적의 균형을 제공해요 — 전체 트랜스포머 임베딩보다 50배 작고 500배 빨라요.12 지연 시간이 덜 중요하고 더 높은 품질의 검색이 필요하다면, potion-base-32M이나 전체 sentence transformer 모델이 더 나은 성능을 보여요. 임베딩 모델보다 검색 아키텍처가 더 중요해요. 작은 임베딩 모델을 사용한 좋은 하이브리드 검색 시스템이 큰 임베딩 모델을 사용한 순수 벡터 검색을 능가해요.2

RAG만으로 에이전트 메모리가 충분할까요?

바닐라 RAG(청크를 검색해 컨텍스트에 넣는 방식)는 메모리가 없는 것보다 낫고 구조화된 메모리보다 못해요. CraniMem 논문이 이를 직접 보여줬어요: 유틸리티 기반 정리를 갖춘 게이트 메모리가 깨끗한 조건과 노이즈 조건 모두에서 바닐라 RAG를 능가했어요.9 에이전트 시스템에서 바닐라 RAG의 실질적인 실패 모드는 컨텍스트 오염이에요 — 간접적으로 관련 있는 정보를 검색해 에이전트가 태스크에서 벗어나게 만드는 거예요. 게이팅(무엇을 검색하지 않을지 결정하는 것)이 검색 품질만큼 중요해요.

벡터 데이터베이스가 필요할까요?

아니요. sqlite-vec 확장을 갖춘 SQLite가 83MB 파일에서 49,746개의 벡터를 1초 이내의 쿼리 시간으로 처리해요.1 수백만 개의 문서를 인덱싱하거나 분산 접근이 필요한 게 아니라면, 로컬 SQLite 데이터베이스가 더 간단하고, 설정이 빠르며, 인프라 의존성을 제거해요. SuperLocalMemory는 로컬 아키텍처를 사용해 클라우드 호출 없이 LoCoMo에서 74.8%를 달성했어요.5

에이전트 드리프트는 어떻게 감지하나요?

원래 태스크 프롬프트의 임베딩과 에이전트의 최근 동작(저는 최근 25번의 도구 호출을 사용해요)의 슬라이딩 윈도우 간의 코사인 유사도를 계산하세요. 임계값을 경험적으로 설정하세요. 제 임계값은 0.30이며, 60개 세션에 걸쳐 보정했어요: 임계값 이하로 발동된 12건 모두 실제 드리프트였고, 임계값 이상의 세션에서는 개입이 필요 없었어요. 임계값은 태스크 도메인과 임베딩 모델에 따라 달라져요. 0.30에서 시작해 오탐률에 따라 조정하세요.1

에이전트 메모리와 에이전트 안전성의 관계는 무엇인가요?

직접적이에요. 500회 이상의 세션에서 분류한 7가지 실패 모드는 에이전트, 모델, 태스크 전반에 걸쳐 반복되는 행동 패턴이에요. 과거 실패에 대한 메모리 없이는 매 세션이 동일한 실수를 재발견해요. IBM 트라젝토리 마이닝 논문이 이를 정량적으로 입증했어요: 이전 트라젝토리의 학습 내용에 접근할 수 있는 에이전트가 복잡한 태스크에서 149% 향상을 달성했어요.4 메모리는 단순히 능력을 향상시키는 것이 아니에요. 에이전트가 알려진 실패 패턴을 반복하는 것을 방지해요.


  1. Blake Crosley, “What I Told NIST About AI Agent Security,” blakecrosley.com, February 2026. Memory system architecture: Model2Vec potion-base-8M, sqlite-vec + FTS5 BM25, RRF fusion, 49,746 chunks, 15,800 files, 83MB database. 

  2. Sydney Lewis, “Structured Distillation for Personalized Agent Memory,” arXiv:2603.13017, March 2026. 4,182 conversations, 14,340 exchanges, 11x compression, MRR 0.759 (hybrid) vs 0.745 (verbatim). 

  3. Huichi Zhou et al., “Memento-Skills: Let Agents Design Agents,” arXiv:2603.18743, March 2026. 17 authors. 116.2% relative improvement on Humanity’s Last Exam. 

  4. Gaodan Fang et al., “Trajectory-Informed Memory Generation for Self-Improving Agent Systems,” arXiv:2603.10600, March 2026. IBM Research. 14.3pp gains, 28.5pp on complex tasks (149% relative increase). 

  5. SuperLocalMemory, GitHub and arXiv:2603.14588, March 2026. 4-channel RRF fusion. Mode A (zero cloud): 74.8% LoCoMo. Mode C: 87.7%. 

  6. Blake Crosley, “What Actually Breaks When You Run AI Agents Unsupervised,” blakecrosley.com, February 2026. Learner v2 skill generation from semantic workflow detection. 

  7. Thariq Shihipar, “Lessons from Building Claude Code: How We Use Skills,” LinkedIn, March 2026. Nine skill categories, hundreds in active use at Anthropic. 

  8. Blake Crosley, “What Actually Breaks When You Run AI Agents Unsupervised,” blakecrosley.com, February 2026. Seven failure modes from 500+ sessions: Shortcut Spiral, Confidence Mirage, Good-Enough Plateau, Tunnel Vision, Phantom Verification, Deferred Debt, Hollow Report. 

  9. Pearl Mody et al., “CraniMem: Cranial Inspired Gated and Bounded Memory for Agentic Systems,” arXiv:2603.15642, March 2026. Goal-conditioned gating, utility-based pruning. 

  10. Pengfei Du, “Memory for Autonomous LLM Agents: Mechanisms, Evaluation, and Emerging Frontiers,” arXiv:2603.07670, March 2026. Survey of five mechanism families. 

  11. Help Net Security, “Enterprise AI Agent Security in 2026,” March 2026. 

  12. Model2Vec, GitHub. potion-base-8M: 256 dimensions, 8MB, 50x size reduction, 500x faster inference. 

관련 게시물

Compound Context: Why AI Projects Improve Over Time

Every problem you solve with an AI agent deposits context that the next session withdraws with interest. This is context…

12 분 소요

When Your Agent Finds a Vulnerability

An Anthropic researcher found a 23-year-old Linux kernel vulnerability using Claude Code and a 10-line bash script. 22 F…

9 분 소요

Your Agent Writes Faster Than You Can Read

Five research groups published about the same problem this week: AI agents produce code faster than developers can under…

17 분 소요