본문으로 건너뛰기

© 2026 Molayo

arXiv중요논문2026. 04. 25. 00:27

지속적 학습(CL) 평가의 새로운 관점: 파인튜닝 레짐 분석

요약

본 논문은 지속적 학습(Continual Learning, CL) 방법론 비교 시 '파인튜닝 레짐(Fine-Tuning Regime)'을 핵심 변수로 다루어야 한다고 주장합니다. 기존 연구들은 보통 고정된 파인튜닝 환경에서 모델 성능을 평가했지만, 이 논문은 학습 가능한 매개변수 부분 공간(trainable parameter subspace)의 깊이 변화가 모델 업데이트 신호와 지식 보존에 미치는 영향을 분석했습니다. 실험 결과, 다양한 적응 레짐(adaptation regimes)에서는 기존 CL 방법론들의 상대적 순위가 일관되게

핵심 포인트

  • 지속적 학습(CL) 성능 비교는 고정된 환경이 아닌 '파인튜닝 레짐'을 고려해야 합니다.
  • 학습 가능한 매개변수 부분 공간의 깊이가 달라질수록 모델 업데이트 크기가 커지고, 지식 망각(forgetting)도 함께 증가하는 경향을 보였습니다.
  • 다양한 벤치마크 데이터셋과 작업 순서에서 기존 CL 방법론들의 상대적 성능 순위가 레짐에 따라 크게 변동함을 입증했습니다.

Fine-Tuning Regimes Define Distinct Continual Learning Problems

Continual learning (CL) studies how models acquire tasks sequentially while retaining previously learned knowledge. Despite substantial progress in benchmarking CL methods, comparative evaluations typically keep the fine-tuning regime fixed. In this paper, we argue that the fine-tuning regime, defined by the trainable parameter subspace, is itself a key evaluation variable. We formalize adaptation regimes as projected optimization over fixed trainable subspaces, showing that changing the trainable depth alters the effective update signal through which both current task fitting and knowledge preservation operate. This analysis motivates the hypothesis that method comparisons need not be invariant across regimes.

We test this hypothesis in task incremental CL, five trainable depth regimes, and four standard methods: online EWC, LwF, SI, and GEM. Across five benchmark datasets, namely MNIST, Fashion MNIST, KMNIST, QMNIST, and CIFAR-100, and across 11 task orders per dataset, we find that the relative ranking of methods is not consistently preserved across regimes. We further show that deeper adaptation regimes are associated with larger update magnitudes, higher forgetting, and a stronger relationship between the two. These results show that comparative conclusions in CL can depend strongly on the chosen fine-tuning regime, motivating regime-aware evaluation protocols that treat trainable depth as an explicit experimental factor.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0