본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 04. 29. 12:28

트랜스포머의 인컨텍스트 학습 (In-Context Learning) 능력에 대한 조사

요약

본 논문은 트랜스포머 모델의 핵심 능력인 인컨텍스트 학습(ICL)에 대한 체계적이고 경험적인 연구를 수행했습니다. 가우시안 혼합 이진 분류 작업을 사용하여, ICL 테스트 정확도가 입력 차원, 컨텍스트 예시 수, 사전 학습 작업 수 등 세 가지 주요 요인에 어떻게 의존하는지 분석합니다. 또한, 모델이 노이즈가 있는 컨텍스트 레이블을 기억하면서도 깨끗한 테스트 데이터에서 강력한 일반화 성능을 보이는 '유해하지 않은 과적합(benign overfitting)' 현상을 광범위하게 탐구하고 그 매개변수 영역을 특징화했습니다.

핵심 포인트

  • ICL의 성공은 입력 차원, 컨텍스트 예시 수, 사전 학습 작업 수라는 세 가지 기본 요인에 의존한다.
  • 제어된 합성 설정을 통해 모델이 컨텍스트만으로 작업 구조를 추론하는 기하학적 조건을 분리하여 분석했다.
  • 모델이 노이즈가 있는 인컨텍스트 레이블을 기억하면서도 깨끗한 테스트 데이터에서 일반화 성능을 보이는 '유해하지 않은 과적합' 현상을 조사했다.
  • 연구 결과는 ICL의 스케일링 행동에 대한 포괄적인 경험적 지도를 제공하며, 차원성, 신호 강도, 컨텍스트 정보가 성공 여부를 결정하는 핵심 요소임을 강조한다.

트랜스포머는 추론 시점에 제공되는 예시 입력 - 출력 쌍만을 사용하여 이전에 보지 못한 작업을 해결할 수 있도록 하는 강력한 인컨텍스트 학습 (ICL) 능력을 보여왔습니다. 이전의 이론적 연구는 트랜스포머가 인컨텍스트에서 선형 분류를 수행할 수 있는 조건을 확립했지만, 이 메커니즘이 성공하는 시점을 지배하는 경험적 스케일링 행동은 여전히 충분히 특징화되지 않았습니다. 본 논문에서는 가우시안 혼합 이진 분류 (Gaussian-mixture binary classification) 작업에 대한 인컨텍스트 학습의 체계적인 경험적 연구를 수행합니다. Frei and Vardi (2024) 의 이론적 프레임워크를 바탕으로, 우리는 인컨텍스트 테스트 정확도가 입력 차원 (input dimension), 인컨텍스트 예시 수 (number of in-context examples), 그리고 사전 학습 작업 수 (number of pre-training tasks) 라는 세 가지 기본 요인에 어떻게 의존하는지 분석합니다. 제어된 합성 설정과 선형 인컨텍스트 분류기 형식을 사용하여, 모델이 컨텍스트만으로부터 작업 구조를 성공적으로 추론할 수 있는 기하학적 조건을 분리해냅니다. 우리는 또한 모델이 노이즈가 있는 인컨텍스트 레이블을 기억하면서도 깨끗한 테스트 데이터에서 강력한 일반화 성능을 달성하는 유해하지 않은 과적합 (benign overfitting) 의 출현을 추가로 조사합니다. 차원성, 시퀀스 길이, 작업 다양성, 그리고 신호 대 잡음 비율 (signal-to-noise regimes) 을 광범위하게 스캔함으로써 이 현상이 나타나는 매개변수 영역을 식별하고, 이것이 데이터 기하학과 학습 노출에 어떻게 의존하는지 특징화합니다. 우리의 결과는 인컨텍스트 분류의 스케일링 행동에 대한 포괄적인 경험적 지도를 제공하며, 차원성, 신호 강도, 그리고 컨텍스트 정보가 인컨텍스트 학습이 성공하거나 실패하는 시점을 결정하는 데 있어 갖는 결정적인 역할을 강조합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
7

댓글

0