추론 과정 최적화: 추론 스킬을 검색하여 정확도와 효율성을 높이다
요약
기존의 LLM 기반 추론(CoT)은 복잡한 문제 해결 시 긴 중간 과정을 생성하는 데 많은 토큰을 소모합니다. 이 논문은 이러한 문제를 해결하기 위해, 광범위한 탐색과 시행착오를 통해 얻은 '재사용 가능한 추론 스킬'을 요약하고 저장하여 검색(Retrieval) 기반으로 활용하는 방법을 제안합니다. 이를 통해 모델이 매번 처음부터 추론하는 대신 관련 스킬을 불러와 사용함으로써, 토큰 소모는 줄이고 문제 해결 정확도는 높일 수 있습니다.
핵심 포인트
- 기존 LLM의 CoT 방식은 긴 중간 과정을 생성하여 높은 토큰 비용과 비효율성을 야기합니다.
- 제안된 방법은 '재사용 가능한 추론 스킬'을 미리 추출하고 저장한 후, 추론 시 관련 스킬을 검색(Retrieval)하여 활용합니다.
- 이 접근법은 모델이 불필요한 탐색 경로를 피하게 하여 토큰 사용량을 크게 줄이는 동시에 전반적인 성능을 향상시킵니다.
- 코딩 및 수학적 추론 과제 평가 결과, 경제성과 실용성이 입증되었습니다.
Reasoning LLMs often spend substantial tokens on long intermediate reasoning traces (e.g., chain-of-thought) when solving new problems. We propose to summarize and store reusable reasoning skills distilled from extensive deliberation and trial-and-error exploration, and to retrieve these skills at inference time to guide future reasoning. Unlike the prevailing reasoning from scratch paradigm, our approach first recalls relevant skills for each query, helping the model avoid redundant detours and focus on effective solution paths. We evaluate our method on coding and mathematical reasoning tasks, and find that it significantly reduces reasoning tokens while improving overall performance. The resulting lower per-request cost indicates strong practical and economic potential for real-world deployment.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기