본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 13. 18:59

랜덤 행렬 이론을 활용한 장기 지평(long-horizon) grokking 중 신경망 과적합 감지

요약

본 논문은 학습 데이터나 테스트 데이터에 접근할 필요 없이 심층 신경망(NNs)에서 과적합의 시작점을 감지하는 새로운 랜덤 행렬 이론 기반 방법을 제시한다. 이 방법은 모델 가중치 행렬을 무작위화하여 얻은 경험적 스펙트럼 분포를 Marchenko-Pastur 분포와 비교하고, 자기 평균화를 위반하는 큰 아웃라이어인 'Correlation Traps'를 식별한다. 연구진은 이러한 Correlation Traps의 형성 및 증가가 테스트 정확도가 감소하는 동안 훈련 정확도는 높은 상태를 유지하는 'anti-grokking' 단계의 시작점을 나타냄을 보여주었으며, 이는 LLMs의 잠재적 과적합 문제를 진단할 수 있는 경험적 접근 방식을 제공한다.

핵심 포인트

  • 새로운 랜덤 행렬 이론을 활용하여 테스트 데이터 없이도 NN의 과적합 시작점 감지 가능.
  • 과적합 초기 단계에서 발생하는 아웃라이어 구조를 'Correlation Traps'로 정의함.
  • 이 트랩은 높은 훈련 정확도와 감소하는 테스트 정확도를 보이는 'anti-grokking' 단계의 지표임.
  • JS 발산 평가를 통해 Correlation Traps가 무해한지 또는 일반화에 해로운지를 구별할 수 있는 경험적 방법을 제시함.
  • LLMs에서도 유사한 Correlation Traps가 관찰되어 잠재적인 과적합 위험을 시사함.

신경망(NNs)을 과적합 없이 훈련하는 것은 어렵고, 과적합이 발생했는지 감지하는 것 또한 어렵습니다. 우리는 학습 데이터나 테스트 데이터에 접근할 필요 없이 심층 학습 모델에서 과적합의 시작점을 감지하는 새로운 랜덤 행렬 이론(Random Matrix Theory) 방법을 제시합니다. 각 모델 레이어에 대해, 우리는 각 가중치 행렬 요소를 개별적으로 무작위화하여 $\mathbf{W} \to \mathbf{W}_{\mathrm{rand}}$로 만들고, 이 무작위화된 경험적 스펙트럼 분포(empirical spectral distribution)를 Marchenko-Pastur 분포에 맞춥니다. 그리고 자기 평균화(self-averaging)를 위반하는 큰 아웃라이어들을 식별합니다. 우리는 이러한 아웃라이어를 Correlation Traps라고 부릅니다. 장기 지평 grokking의 시작점, 즉 우리가 'anti-grokking' 단계라고 부르는 동안, Correlation Traps가 형성되고 그 수가 커지며 크기가 증가하는데, 이는 테스트 정확도가 감소하는 동안 훈련 정확도는 높은 상태를 유지할 때 발생합니다. 이러한 트랩은 무해할 수도 있고 일반화에 해로울 수도 있습니다. 우리는 임의 데이터를 훈련된 모델을 통과시키고 출력 로짓(output logits)의 JS 발산(JS divergence)을 평가함으로써 이 둘을 구별하는 경험적 접근 방식을 제공합니다. 우리의 연구 결과는 anti-grokking이 높은 훈련 정확도와 감소하는 테스트 정확도를 특징으로 하는, pre-grokking과는 구조적으로 구별되는 추가적인 grokking 단계임을 보여줍니다. 더 넓은 관점에서, 우리는 일부 파운데이션 규모의 LLMs가 동일한 Correlation Traps를 나타내며, 이는 잠재적으로 해로운 과적합을 시사합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0