본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 14. 07:08

PRISM: 의도 인식 구조화된 메모리(Intent-Aware Structured Memory)를 통한 장기적 에이전트(Long-Horizon

요약

PRISM은 장기적 언어 에이전트가 직면하는 메모리 관리 문제를 해결하기 위해 제안된 학습이 필요 없는(Training-free) 검색 프레임워크입니다. 이 프레임워크는 그래프 구조 메모리를 활용하여 공동 검색 및 압축을 수행하며, 네 가지의 추론 시간 구성 요소를 결합합니다. PRISM은 적응형 의도 라우팅, 계층적 번들 검색 등을 통해 필요한 증거를 효율적으로 찾아내고, 이를 압축된 컨텍스트로 제공함으로써 정확도와 메모리 사용량 측면에서 기존 방식보다 월등한 성능을 보여줍니다.

핵심 포인트

  • PRISM은 장기 에이전트의 메모리 관리 문제를 해결하는 학습 불필요(Training-free) 검색 프레임워크이다.
  • 네 가지 직교 추론 구성 요소(계층적 번들 검색, 쿼리 민감형 엣지 비용 산정, 증거 압축, 적응형 의도 라우팅)를 결합하여 작동한다.
  • 검색을 최소 비용 선택 문제로 공식화하고 LLM 측 압축과 결합하여 컨텍스트 예산 내에서 최적의 증거를 찾아낸다.
  • LoCoMo 벤치마크에서 기존 베이스라인 대비 높은 정확도를 유지하면서도 컨텍스트 사용량을 대폭 줄여 성능 우위를 입증했다.

장기적 언어 에이전트(Long-horizon language agents)는 고정된 컨텍스트 창(Context window)이 수용할 수 있는 속도보다 훨씬 빠르게 대화 기록을 축적하며, 이는 답변 정확도와 서비스 비용 모두에 있어 메모리 관리(Memory management)를 매우 중요하게 만듭니다. 기존 방식들은 무엇을 검색할지에 대한 해결책 없이 컨텍스트 창을 확장하거나, 상당한 토큰 비용을 들여 인제스션(Ingestion) 단계에서 무거운 사실 추출(Fact extraction)을 수행하거나, 정확도와 효율성을 모두 놓치는 휴리스틱 그래프 탐색(Heuristic graph traversal)에 의존합니다. 본 논문에서는 장기적 메모리를 그래프 구조 메모리(Graph-structured memory) 상의 공동 검색 및 압축(Joint retrieval-and-compression) 문제로 다루는 학습이 필요 없는(Training-free) 검색 측 프레임워크인 PRISM을 제안합니다. PRISM은 네 가지의 직교하는 추론 단계(Inference-time) 구성 요소를 결합합니다: 유형화된 관계 경로(Typed relation paths)에 대한 계층적 번들 검색(Hierarchical Bundle Search), 탐색을 감지된 쿼리 의도(Query intent)와 일치시키는 쿼리 민감형 엣지 비용 산정(Query-Sensitive Edge Costing), 후보 번들을 압축된 답변 측 컨텍스트로 압축하는 증거 압축(Evidence Compression), 그리고 대부분의 쿼리를 Zero-LLM 계층을 통해 라우팅하는 적응형 의도 라우팅(Adaptive Intent Routing)입니다. 검색을 유형화된 경로 템플릿(Typed path templates)에 대한 최소 비용 선택(Min-cost selection)으로 공식화하고 이를 LLM 측 압축 단계와 결합함으로써, PRISM은 상위 인제스션 파이프라인(Upstream ingestion pipeline)에 대한 미세 조정(Fine-tuning)이나 수정 없이 엄격한 컨텍스트 예산(Context budget) 내에서 적절한 증거를 찾아냅니다. LoCoMo 벤치마크에서의 실험 결과, PRISM은 동일한 프로토콜을 사용하는 모든 베이스라인(Baseline)보다 현저히 높은 LLM-judge 정확도를 제공하면서도 컨텍스트 예산은 10배(Order-of-magnitude) 더 작게 유지하여, 정확도-컨텍스트-비용 프런티어(Accuracy-context-cost frontier)에서 기존에 비어 있던 영역을 점유하고 답변 품질과 검색 효율성 사이의 탁월한 균형을 입증했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0