본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 11. 23:39

Teacher로서의 궤적: 에너지 탐색 증류를 통한 소수 단계 이산 흐름 매칭

요약

본 기사는 텍스트 생성 과정에서 사용되는 이산 흐름 매칭(Discrete flow matching)의 효율성 문제를 다룹니다. 기존 방식이 수백 번의 순방향 패스를 요구하는 반면, 증류를 통해 학생 모델이 이를 몇 단계로 재현하도록 학습합니다. 저자들은 성능 저하의 원인이 단순히 학생 모델의 용량 부족이 아니라, 오히려 학습에 사용되는 '궤적(trajectory)' 자체의 병목 현상에 있다고 주장하며, 궤적-샤프티(Trajectory-Shap) 기법을 제안합니다.

핵심 포인트

  • 이산 흐름 매칭은 노이즈 토큰을 언어로 변환하는 과정에서 많은 계산 자원을 소모한다.
  • 증류 학습은 복잡한 다단계 과정을 적은 단계로 압축하여 학생 모델에 학습시키는 기술이다.
  • 기존의 성능 저하 원인 분석(학생 모델 용량 부족)과 달리, 본 연구는 문제의 근본 원인을 '학습 궤적' 자체에서 찾는다.
  • 제안된 방법론은 블라인드 확률적 점프를 통해 구축된 궤적을 학생 모델이 모방하도록 학습시키는 데 초점을 맞춘다.

이산 흐름 매칭(Discrete flow matching)은 노이즈 토큰을 일관된 언어로 반복적으로 변환하여 텍스트를 생성하지만, 수백 번의 순방향 패스(forward passes)가 필요할 수 있습니다. 증류(Distillation)는 다단계 궤적(multi-step trajectory)을 사용하여 학생 모델(student)이 이 과정을 몇 단계로 재현하도록 학습합니다. 학생 모델의 성능이 떨어질 때, 일반적인 설명은 충분한 용량(capacity) 부족입니다. 우리는 정반대라고 주장합니다: 병목 현상은 학생 모델이 아니라 궤적 자체에 있습니다. 각 학습 궤적은 시퀀스 품질 평가 없이 일련의 블라인드 확률적 점프(blind stochastic jumps)를 통해 구축되며, 초기에 잘못된 결정 하나가 후속 단계로 전파되지만, 학생 모델은 그 결과를 모방해야 합니다. 궤적-샤프티(Trajectory-Shap

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0