MEMTIER: 장기 실행 자율 AI 에이전트의 계층형 메모리 구조 및 검색 병목 현상 분석
요약
본 논문은 장기 실행 자율 AI 에이전트가 직면하는 메모리 일관성 문제를 해결하기 위해 MEMTIER라는 계층형 메모리 구조를 제안합니다. MEMTIER는 JSONL 스토어, 신호 가중치 검색 엔진, 주의력 귀속 업데이트 루프 등 여러 구성 요소를 포함하며, 에피소드 사실을 의미론적 계층으로 촉진하는 비동기 통합 데몬을 특징으로 합니다. 이 구조를 통해 기존의 평면 메모리 시스템 대비 현저히 개선된 성능을 보여주었으며, 특히 장기간의 복잡한 추론 및 다중 세션 합성 능력에서 우위를 입증했습니다.
핵심 포인트
- 장기 자율 AI 에이전트는 기존 평면 메모리 구조에서 심각한 메모리 일관성 문제를 겪는다.
- MEMTIER는 JSONL 스토어, 신호 가중치 검색 엔진 등 다층적이고 모듈화된 아키텍처를 통해 이 문제를 해결한다.
- 제안된 시스템은 소비자급 GPU(6GB) 환경에서도 높은 성능을 유지하며, 기존 베이스라인 대비 상당한 성능 향상을 달성했다.
- 특히 구조화된 의미론적 사전 채우기 덕분에 시간적 추론 및 다중 세션 합성 능력이 크게 개선되었다.
장기 실행 자율 AI 에이전트는 잘 문서화된 메모리 일관성 문제를 겪습니다. 기존 평면 파일 메모리 시스템의 네 가지 복합적인 실패 모드로 인해 도구 실행 성공률은 72 시간 운영 창에서 14 퍼센트 포인트 감소합니다.
우리는 OpenClaw 에이전트 런타임용 삼부제 메모리 구조인 MEMTIER를 제시합니다. 이는 다음과 같은 구성 요소를 포함합니다:
- 구조화된 에피소드 JSONL 스토어
- 5 신호 가중치 검색 엔진
- 주의력 귀속 인지 가중치 업데이트 루프
- 에피소드 사실을 의미론적 계층으로 촉진하는 비동기 통합 데몬
- 검색 가중치를 적응시키기 위한 PPO 기반 정책 프레임워크 (인프라 검증 완료; 성능 향상은 카메라 준비 대기 중)
전체 500 개의 질문 LongMemEval-S 벤치마크 (Wu et al., 2025) 에서 MEMTIER 는 Qwen2.5-7B 를 사용하여 Acc=0.382, F1=0.412 를 달성했습니다. 이는 소비자 6GB GPU 에서 전체 컨텍스트 베이스라인 (0.050 -> 0.382, 즉 5% -> 38%) 대비 +33 퍼센트 포인트 개선입니다.
DeepSeek-V4-Flash 사실 사전 채우기를 사용할 때, 단일 세션 회상은 0.686-0.714 로 도달하여 해당 카테고리에서 논문의 RAG BM25 GPT-4o 베이스라인 (0.560) 을 초과합니다. 시간적 추론은 0.323 으로 상승하고 다중 세션 합성은 0.173 으로, 구조화된 의미론적 사전 채우기가 경량 검색이 달성할 수 있는 것을 질적으로 변화함을 보여줍니다.
모든 단계는 소비자 노트북의 6GB GPU 로 로컬에서 실행됩니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기