루프 해결하기: 언어 및 추론을 위한 Attractor Models
요약
Attractor Models는 기존 Transformer의 한계를 극복하고 언어 모델링 및 추론 능력을 향상시키는 새로운 접근 방식입니다. 이 모델은 백본 모듈이 제안한 출력 임베딩을 Attractor 모듈이 암시적 미분(implicit differentiation)을 통해 얻은 그래디언트를 사용하여 고정점(fixed point)으로 정제합니다. 그 결과, 학습 메모리는 유효 깊이에 관계없이 일정하게 유지되며, 반복 횟수는 수렴에 따라 적응적으로 결정됩니다. 실험적으로 Attractor Models는 대규모 언어 모델 사전 학습과 소형 모델을 이용한 추론 모두에서 기존의 표준 Transformer 및 루프 구조를 능가하는 성능을 보여주었습니다. 특히, 작은 규모임에도 불구하고 까다로운 추론 작업에서 높은 정확도를 달성하며, 프런티어 모델들이 실패하는 영역에서도 강력함을 입증했습니다.
핵심 포인트
- Attractor Models는 순수 피드포워드 연산의 대안으로, 반복적 정제(iterative refinement)를 가능하게 합니다.
- 암시적 미분과 고정점 계산을 통해 학습 메모리 사용량을 일정하게 유지하며 효율성을 높였습니다.
- 언어 모델링에서 표준 Transformer 대비 높은 퍼플렉시티 감소 및 다운스트림 정확도 향상을 달성했습니다.
- 소형 Attractor Model이 대규모 프런티어 모델들이 실패하는 복잡한 추론 작업(Sudoku-Extreme, Maze-Hard)에서도 뛰어난 성능을 보였습니다.
- 고정점 학습(fixed-point training)을 통해 솔버 없이도 평형 내재화(equilibrium internalization)를 구현할 수 있습니다.
Looped Transformers는 잠재 표현 (latent representations)을 반복적으로 정제함으로써 언어 모델링 (language modeling)과 추론 (reasoning)을 개선하며, 순수 피드포워드 (feed-forward) 연산에 대한 유망한 대안을 제공합니다. 그러나 순환 구조 (recurrent architectures)는 학습이 불안정하고, 최적화 및 배포 비용이 높으며, 작고 고정된 순환 깊이 (recurrence depths)로 제한된다는 문제가 있습니다. 우리는 Attractor Models를 소개합니다. 이 모델에서는 백본 모듈 (backbone module)이 먼저 출력 임베딩 (output embeddings)을 제안하면, Attractor 모듈이 암시적 미분 (implicit differentiation)을 통해 얻은 그래디언트 (gradients)를 사용하여 고정점 (fixed point)을 구함으로써 이를 정제합니다. 따라서 학습 메모리는 유효 깊이 (effective depth)에 관계없이 일정하게 유지되며, 반복 횟수는 수렴 (convergence)에 따라 적응적으로 선택됩니다. 실증적으로, Attractor Models는 대규모 언어 모델 사전 학습 (large-scale language-model pretraining)과 소형 모델을 이용한 추론 (reasoning with tiny models)이라는 두 가지 영역에서 기존 모델들을 능가합니다. 언어 모델링에서 Attractor Models는 표준 Transformers 및 안정적인 루프 모델 (looped models)에 비해 크기에 관계없이 파레토 개선 (Pareto improvement)을 달성하며, 학습 비용을 줄이면서도 퍼플렉시티 (perplexity)를 최대 46.6%, 다운스트림 정확도 (downstream accuracy)를 최대 19.7%까지 향상시킵니다. 특히, 770M 규모의 Attractor Model은 두 배 더 많은 토큰으로 학습된 1.3B Transformer보다 뛰어난 성능을 보입니다. 까다로운 추론 작업에서, 우리는 단 27M 파라미터를 가진 모델과 약 1,000개의 예시만으로 Sudoku-Extreme에서 91.4%, Maze-Hard에서 93.1%의 정확도를 달성함을 보여줍니다. 이는 Claude 및 GPT o3와 같은 프런티어 모델 (frontier models)이 완전히 실패하고, 특화된 재귀적 추론기 (specialized recursive reasoners)가 더 큰 규모에서 붕괴되는 상황에서도 유리하게 확장됩니다. 마지막으로, 우리는 Attractor Models가 우리가 평형 내재화 (equilibrium internalization)라고 부르는 새로운 현상을 보인다는 것을 입증합니다. 고정점 학습 (fixed-point training)은 모델의 초기 출력 임베딩을 평형 (equilibrium) 근처에 배치하여, 추론 시 (inference time) 성능 저하를 거의 일으키지 않으면서 솔버 (solver)를 제거할 수 있게 합니다. 종합적으로, 이러한 결과들은 Attractor Models가 순환 (recurrence)을 모델이 내재화하는 법을 배울 수 있는 연산으로 전환함으로써 반복적 정제 (iterative refinement)를 확장 가능하게 만든다는 것을 시사합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기