본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 13. 05:31

검색 전 경로 설정: RAG 대 장문 컨텍스트를 위한 LLM의 잠재적 라우팅 능력 활성화

요약

LLM의 컨텍스트 창 확장으로 긴 문서 이해와 다중 출처 추론이 가능해졌지만, RAG(검색 증강 생성)와 장문 컨텍스트(LC) 중 어떤 전략을 사용할지 결정하는 것이 핵심 과제입니다. 본 논문은 답변 생성을 시작하기 전에 구조화된 추론을 수행하여 최적의 접근 방식을 능동적으로 선택하는 'Pre-Route'라는 라우팅 프레임워크를 제안합니다. 실험 결과, Pre-Route는 기존 방법들보다 우수하며 비용 효율성까지 높다는 것을 입증했습니다.

핵심 포인트

  • LLM의 컨텍스트 확장에도 불구하고 RAG와 장문 컨텍스트(LC) 전략 간의 최적 선택이 여전히 중요한 과제이다.
  • 기존 라우팅 방법들(예: Self-Route)은 실패 기반의 수동적인 폴백에 의존하여 비효율적이고 해석하기 어려웠다.
  • 새롭게 제안된 'Pre-Route'는 답변 생성 전에 구조화된 추론을 수행함으로써 최적의 검색/컨텍스트 전략을 능동적으로 결정한다.
  • 실험 결과, Pre-Route는 Always-RAG, Always-LC, Self-Route 등 기존 기준선 대비 성능과 비용 효율성 모두에서 우수함을 보였다.

대규모 언어 모델(LLMs)의 최근 발전으로 컨텍스트 창이 128K 토큰을 넘어 확장되면서, 긴 문서 이해와 다중 출처 추론이 가능해졌습니다. 하지만 핵심 과제는 검색 증강 생성(RAG)과 장문 컨텍스트(LC) 전략 중 어떤 것을 선택할지 결정하는 것입니다. RAG는 효율적이지만 검색 품질에 제약이 따르고, LC는 더 높은 비용과 위치 민감성을 가지면서 전역적인 추론을 지원합니다. Self-Route와 같은 기존 방법들은 RAG에서 LC로의 실패 기반 폴백(fallback)을 채택하지만, 여전히 수동적이고 비효율적이며 해석하기 어렵습니다. 본 논문에서는 답변을 하기 전에 구조화된 추론을 수행하는 능동적인 라우팅 프레임워크인 Pre-Route를 제안합니다. U

LaRA(도메인 내) 및 LongBench-v2(도메인 외)에서의 실험을 통해 Pre-Route가 Always-RAG, Always-LC, 그리고 Self-Route 기준선보다 우수하며 전반적으로 뛰어난 비용 효율성을 달성함을 확인했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0