본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 14. 13:24

RTLC -- Research, Teach-to-Learn, Critique: Feynman 학습 기법에서 영감을 받아 미세

요약

본 글은 LLM 기반 평가 시스템의 한계를 극복하기 위해 'RTLC (Research, Teach-to-Learn, Critique)'라는 3단계 프롬프팅 레시피를 제안합니다. RTLC는 Feynman 학습 기법을 차용하여 입력에 교육적 스캐폴드를 적용하고, 여러 후보 판결(N=10)을 도출한 후, 자체 비판자 역할을 통해 최종적으로 하나의 정제된 판결을 내리는 방식입니다. 이 방법은 기존의 단일 샷 프롬프팅이나 자기 일관성 투표보다 JudgeBench-GPT와 같은 어려운 쌍체 비교 항목에서 높은 성능 향상을 보여주었습니다.

핵심 포인트

  • RTLC는 Research, Teach-to-Learn, Critique의 3단계 구조를 가진 LLM 평가 방법론입니다.
  • Feynman 학습 기법을 프롬프팅에 적용하여 입력 정보를 교육적 스캐폴드(Pedagogical scaffold)로 감싸는 것이 핵심입니다.
  • N=10개의 독립적인 후보 판결과 최종 비판자(Critic)의 역할을 통해 기존 방식 대비 높은 정확도 향상을 달성했습니다.
  • RTLC는 자기 일관성 다수결 투표나 제로샷 첫 번째 후보보다 우수한 성능을 보였으며, 각 단계별 기여도를 분석했습니다.

LLM-as-a-judge(심사위원으로서의 LLM)는 이제 개방형 생성(Open-ended generation)을 위한 기본 측정 도구이지만, 공개 벤치마크인 JudgeBench의 객관적 정확성(Objective-correctness) 쌍체 비교(Pairwise) 항목에서는 강력한 지시어 튜닝(Instruction-tuned)을 거친 심사위원들조차 무작위 수준을 겨우 넘어서는 데 그치고 있습니다. 우리는 미세 조정(Fine-tuning), 검색(Retrieval), 또는 외부 도구 없이 단일 블랙박스 LLM을 사고 앙상블(Ensemble-of-thought) 심사위원으로 격상시키는 3단계 프롬프팅 레시피인 RTLC -- Research, Teach-to-Learn, Critique --를 소개합니다. 1단계는 Feynman 학습 기법(학습 $\to$ 가르치기 $\to$ 공백 찾기 $\to$ 단순화)을 LLM 프롬프팅으로 이식하여, 입력을 고정된 교육적 스캐폴드(Pedagogical scaffold)로 감쌉니다. 2단계는 온도(Temperature) 0.4에서 $N=10$개의 독립적인 후보 판결을 도출합니다. 3단계는 자체적인 비판자(Critic) 역할을 수행하며, 후보 집합을 원래 질문과 교차 비교하여 온도 0에서 하나의 비판된 판결을 내놓습니다. JudgeBench-GPT(350개의 어려운 쌍체 비교 항목)에서 Claude 3.7 Sonnet의 쌍체 정확도는 64.6%(단일 샷 바닐라 프롬프트)에서 78.6%(RTLC critique-of-10)로 상승하며, 이는 절대 수치로 14.0%포인트의 이득을 의미합니다. RTLC는 또한 $N=10$ 자기 일관성 다수결 투표(Self-consistency majority voting, 77.7%)와 제로샷 첫 번째 후보(Zero-shot first candidate, 74.0%)를 능가합니다. 깔끔한 3단계 어블레이션(Ablation) 연구 결과, Teach-to-Learn 스캐폴드에서 +9.4%p, $N=10$ 마진화(Marginalisation)에서 +3.7%p, 그리고 명시적 비판(Explicit critique)에서 +0.9%p의 기여도가 확인되었습니다. 우리는 비용-정확도 경계(RTLC는 모든 작동 지점에서 자기 일관성보다 상위에 위치함), JudgeBench의 4가지 카테고리(지식, 추론, 수학, 코딩)에 걸친 오류 예산(Error-budget) 분석, 그리고 RTLC가 사후 심사 점수 보정(Post-hoc judge-score calibration)과 어떻게 직교적으로 결합하여 실제로는 두 개입이 곱연산적으로 작용하는지에 대해 논의합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0