차량 사고 부상 심각도 예측을 위한 새로운 동적 배치 민감형 Adam 옵티마이저
요약
본 연구는 딥러닝 모델의 효율성을 높이기 위해 동적 배치 민감도를 활용한 새로운 옵티마이저인 Dynamic Batch-Sensitive Adam (DBS-Adam)을 제안합니다. DBS-Adam은 그래디언트 노름과 배치 손실의 지수 이동 평균에서 도출된 '배치 난이도 점수'를 사용하여 학습률을 동적으로 조절하며, 어려운 배치에는 더 많은 업데이트를, 쉬운 배치에는 적은 업데이트를 적용하여 학습 안정성과 수렴 속도를 향상시킵니다. 이 옵티마이저는 차량 사고 부상 심각도 예측 태스크에 Bi-LSTM과 결합되어 기존 최신 옵티마이저들 대비 통계적으로 유의미한 성능 개선을 입증했습니다.
핵심 포인트
- DBS-Adam은 배치 난이도 점수를 기반으로 학습률을 동적으로 조절하는 새로운 옵티마이저입니다.
- 어려운 데이터 배치를 더 많이 업데이트하고 쉬운 데이터를 적게 업데이트하여 학습 안정성을 높였습니다.
- 사고 부상 심각도 예측에 DBS-Adam과 Bi-LSTM 조합을 적용하여 높은 성능(Precision 96.11%, F1-score 95.39%)을 달성했습니다.
- 제안된 프레임워크는 불균형한 순차 데이터로부터 학습하는 실시간 사고 심각도 분류에 효과적입니다.
옵티마이저 (Optimiser)의 선택은 모델의 효율성과 수렴 속도에 강력한 영향을 미치기 때문에 딥러닝에서 매우 중요합니다. 그러나 흔히 사용되는 많은 옵티마이저들은 불균형하고 순차적인 데이터셋 (Sequential datasets)에 적용될 때 어려움을 겪으며, 이는 소수 클래스의 패턴을 포착하는 능력을 제한합니다. 본 연구에서는 그래디언트 노름 (Gradient norms)과 배치 손실 (Batch loss)의 지수 이동 평균 (Exponential moving averages)에서 도출된 배치 난이도 점수를 사용하여 학습률 (Learning rate)을 동적으로 조절하는 옵티마이저인 Dynamic Batch-Sensitive Adam (DBS-Adam)을 제안합니다. DBS-Adam은 어려운 배치에 대한 업데이트는 늘리고 쉬운 배치에 대한 업데이트는 줄임으로써 학습 안정성을 향상시키고 수렴을 가속화합니다. 우리는 사고 부상 심각도 예측을 위해 Bi-Directional LSTM (Bi-LSTM) 네트워크와 DBS-Adam을 통합하여 평가하였으며, SMOTE-ENN 리샘플링 (Resampling)과 Focal Loss를 통해 클래스 불균형 문제를 해결하였습니다. 네 가지 실험 구성을 통해 베이스라인 Bi-LSTM 모델 및 대안적 아키텍처들과 비교하여 옵티마이저의 영향을 평가하였습니다. 다섯 개의 랜덤 시드 (Random seeds)를 사용하여 최신 옵티마이저들 (AMSGrad, AdamW, AdaBound)과 엄격하게 비교한 결과, DBS-Adam은 통계적으로 유의미한 정밀도(Precision) 향상(p=0.020)과 함께 경쟁력 있는 성능을 입증했습니다. 결과에 따르면 DBS-Adam은 표준 최적화 방식보다 뛰어난 성능을 보이며, 테스트 정확도(Test accuracy) 95.22%, 정밀도(Precision) 96.11%, 재현율(Recall) 95.28%, F1-score 95.39%, 그리고 테스트 손실(Test loss) 0.0086을 달성했습니다. 제안된 프레임워크는 표적화된 응급 대응 및 도로 안전 개입을 위한 효과적인 실시간 사고 심각도 분류를 가능하게 하며, 불균형한 순차 데이터로부터 학습하는 데 있어 DBS-Adam의 가치를 입증합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기