본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 11. 22:39

KL for a KL: Control Variate Baseline을 이용한 On-Policy Distillation

요약

본 논문은 대규모 언어 모델(LLM)의 추론 영역 훈련에 사용되는 On-Policy Distillation (OPD)의 불안정성 문제를 해결하기 위해 vOPD(Control Variate Baseline을 이용한 On-Policy Distillation)를 제안합니다. 이는 OPD를 정책 경사(policy-gradient RL)로 간주하고, 전통적인 강화 학습(RL) 기법인 Control Variate Baseline을 도입하여 훈련의 안정성을 높입니다. 특히, OPD의 값 함수가 학생 및 교사 모델 간의 토큰당 음의 역 KL 발산이라는 형태로 표현되어 추가 계산 없이도 쉽게 얻을 수 있다는 점을 강조합니다.

핵심 포인트

  • On-Policy Distillation (OPD)은 LLM 훈련에서 중요한 패러다임이지만, 높은 기울기 분산으로 인해 구현이 불안정하다는 문제가 있다.
  • 제안된 vOPD는 OPD를 정책 경사(policy-gradient RL)로 재해석하고 Control Variate Baseline을 적용하여 훈련의 안정성을 크게 향상시킨다.
  • vOPD의 핵심은 OPD의 값 함수가 학생 모델과 교사 모델 간의 토큰당 음의 역 KL 발산이라는 닫힌 형태로 표현되어 계산 효율성이 높다는 것이다.

On-Policy Distillation (OPD)은 대규모 언어 모델(LLM), 특히 추론 영역에서 지배적인 사후 훈련 패러다임으로 부상했습니다. 하지만 OPD는 단일 샘플 Monte Carlo 추정기의 높은 기울기 분산 때문에 실제 구현에서 여전히 불안정하며, 안정적인 훈련을 위한 방법론은 아직 미성숙합니다. 본 논문에서는 vOPD(Control Variate Baseline을 이용한 On-Policy Distillation)를 제안하는데, 이는 OPD를 정책 경사 (policy-gradient RL)로 간주하고, RL 문헌에서 전통적으로 사용되는 값 함수(value function)인 Control Variate Baseline을 도입하여 안정화합니다. 우리는 OPD의 값 함수가 학생 모델과 교사 모델 간의 토큰당 음의 역 KL 발산(negative reverse KL divergence)이라는 닫힌 형태를 가진다는 것을 보여주며, 이는 추가적인 계산 없이 이미 계산된 순방향 패스에서 직접 얻을 수 있습니다.

RL 분산 감소 (Variance Reduction).

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0