수면 데이터 사전 학습이 수면 외 생체 신호 작업 성능 향상
요약
본 연구는 수면 생체 신호에서 사전 학습된 모델이 수면 외의 다른 임상적 생체 신호 작업(예: EEG, ECG 분석)으로 효과적으로 지식을 전이할 수 있는지 탐구합니다. 기존에 수면 기반 모델들이 다양한 수면 관련 작업에서 강력한 성능을 보였던 것에 이어, 연구진은 수면 데이터를 활용하여 사전 학습된 표현 분포가 다른 도메인에서도 유용한지 검증했습니다. 그 결과, 수면 사전 학습은 EEG 및 ECG와 같은 여러 모달리티의 다운스트림 작업에서 초기 훈련 대비 일관되게 성능을 향상시켰으며, 일부 작업에서는 기존 최고 성능 모델과 경쟁하거나 이를 능가하는 결과를 보여주었습니다.
핵심 포인트
- 수면 기반 사전 학습(Sleep pretraining)이 수면 외의 다른 생체 신호 도메인으로 지식 전이가 가능함을 입증했습니다.
- EEG 및 ECG와 같은 여러 모달리티에 걸쳐 8개의 다운스트림 작업에서 성능 향상을 보였습니다.
- 수면 사전 학습은 초기부터 모델을 훈련하는 것보다 일관되게 우수한 성능을 제공합니다.
- 일부 다운스트림 작업에서는 수면 기반 사전 학습이 기존의 최고 성능(SOTA) 모델과 경쟁하거나 이를 능가했습니다.
최근 수면 기반 모델 (sleep foundation models) 은 수면 단상 (sleep staging), 천식 (apnea detection), 질병 위험 예측 등 인공역 (in-domain) 다중 전극 기록 (polysomnography) 작업에서 강력한 성능을 입증했습니다. 본 연구에서는 수면 생체 신호가 수면 외 인접 도메인으로 표현을 이전할 수 있는 효과적인 사전 학습 분포 (pretraining distribution) 가 될 수 있는지 조사합니다. 수면 기반 모델 다음으로, 우리는 수면 전용 다중 모달리티 대비 사전 학습 (leave-one-out objective) 을 수행하고, 여러 개의 데이터셋과 임상적 의미 있는 다운스트림 작업이 있는 잘 벤치마크된 생체 신호 모달리티인 EEG 와 ECG 로의 이전 성능을 평가합니다. 8 개의 EEG 및 ECG 데이터셋에 걸친 8 개의 다운스트림 작업에서 수면 사전 학습은 초기부터 훈련하는 것보다 일관되게 성능을 향상시킵니다. 또한, 몇몇 작업에서는 이전 전문 최상위 (state-of-the-art) 와 기반 모델과 경쟁적이거나 이를 초과하는 성능을 달성했습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기