본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 04. 30. 16:47

Composable Parametric Retrieval Augmented Generation 을 위한 지식 및 작업 서브스페이스 분리

요약

본 논문은 Parametric Retrieval-Augmented Generation (PRAG)의 한계점인 '지식과 작업 행동의 얽힘(entanglement)' 문제를 해결하기 위한 새로운 어댑터 학습 설정, Orthogonal Subspace Decomposition (OSD)을 제안합니다. OSD는 재사용 가능한 작업 행동을 별도의 Task LoRA로 분리하고, 문서별 지식을 직교 서브스페이스에 인코딩하는 방식으로 PRAG를 개선합니다. 이 직교화 전략은 여러 어댑터를 병합할 때 파라메트릭 RAG의 구성적 견고성(compositional robustness)을 크게 향상시키는 것으로 나타났습니다.

핵심 포인트

  • PRAG는 경량 파라미터 모듈로 검색 증강을 수행하는 유망한 대안이지만, 기존 구현체들은 지식과 작업 행동이 얽혀 있어 병합 시 안정성이 떨어지는 문제가 있습니다.
  • 제안된 Orthogonal Subspace Decomposition (OSD)은 재사용 가능한 '작업 행동'과 문서별 '지식'을 직교 서브스페이스를 이용해 분리 학습합니다.
  • Task LoRA로 작업 행동을 포착하고, Document LoRA로 지식을 인코딩함으로써 어댑터 업데이트의 병합 신뢰성을 높일 수 있습니다.
  • 실험 결과, OSD는 특히 다문서 환경에서 여러 어댑터를 병합할 때 PRAG의 구성적 견고성(compositional robustness)을 효과적으로 향상시킵니다.

Parametric Retrieval-Augmented Generation (PRAG) 은 추론 시점에 검색 및 병합이 가능한 경량 파라미터 모듈로 외부 문서를 인코딩하여, 컨텍스트 내 검색 증강 (in-context retrieval augmentation) 의 유망한 대안을 제시합니다. 그러나 많은 PRAG 구현체는 작업 감독 목적 (task-supervised objectives) 으로 문서 어댑터를 학습시켜, 각 어댑터가 문서별 사실과 재사용 가능한 작업 해결 행동을 모두 인코딩하도록 할 수 있습니다. 이러한 얽힘 (entanglement) 은 어댑터의 병합 신뢰성을 낮출 수 있습니다: 추론 시점에 여러 어댑터를 병합할 때, 중복된 작업 행동이 문서별 업데이트와 함께 누적될 수 있어, 병합된 어댑터가 의도한 문서 지식에 덜 집중되고 안정성이 떨어질 수 있습니다. 이 문제를 조사하기 위해 우리는 재사용 가능한 작업 행동을 문서별 지식 어댑터에서 분리하는 어댑터 학습 설정인 Orthogonal Subspace Decomposition (OSD) 을 탐구합니다. 구체적으로, 우리는 먼저 재사용 가능한 작업 행동을 포착하기 위해 Task LoRA 를 학습한 후, 문서별 지식을 직교 서브스페이스 (orthogonal subspace) 에서 인코딩하도록 문서 LoRAs 를 학습합니다. 이 설정은 다문서 PRAG 에서 작업 및 문서 LoRA 업데이트를 직교화하는 것이 어댑터 병합에 미치는 영향을 통제된 방식으로 조사할 수 있는 방법을 제공합니다. 여러 지식 집약적 작업과 모델 규모에 걸친 실험 결과, 이 직교화 전략이 특히 여러 문서 어댑터를 병합할 때 파라메트릭 RAG 의 구성적 견고성 (compositional robustness) 을 향상시킬 수 있음을 시사합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
9

댓글

0