본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 08. 13:51

On-Orbit Real-Time Wildfire Detection Under On-Board Constraints

요약

본 논문은 9개 위성을 이용한 실시간 산불 감지 시스템을 제시하며, 특히 모델 크기, 추론 지연 시간, 전체 알림 파이프라인 등 까다로운 제약 조건 하에서 작동하는 데 초점을 맞추고 있습니다. 연구진은 독점적인 MWIR 데이터셋과 DenseMAE 및 그 변형(hybrid DenseMAE+EMA)을 활용하여 경량화된 밀집 표현 학습(dense representation learning) 방법을 개발했습니다. 이 방법론은 극심한 클래스 불균형 환경에서 높은 정확도와 낮은 지연 시간을 동시에 달성하며, 기존의 산불 감지 방식이 해결하지 못했던 문제를 개선하는 것을 목표로 합니다.

핵심 포인트

  • 9개 위성을 활용하여 우주 기반 실시간 산불 감지 시스템을 구축하고, 엄격한 온보드 제약 조건(sub-MB 모델 크기, 150ms 미만 지연 시간)을 충족시킵니다.
  • MWIR 단일 대역 이미지에서 발생하는 극심한 클래스 불균형 및 서브/싱글 픽셀 열적 이상 현상 문제를 해결하는 데 중점을 두었습니다.
  • DenseMAE와 하이브리드 변형(hybrid DenseMAE+EMA)을 사용하여 경량화된 밀집 표현 학습 방법을 제안하고, 이를 통해 낮은 지연 시간과 높은 정확도의 균형점(Pareto frontier)을 달성했습니다.
  • 최적의 모델 구성은 1MB 미만의 크기로 AP 0.699 및 Fire-F1 0.744를 달성하여 기존 지도 학습 기반 방식보다 우수한 성능을 보였습니다.

우리는 9 개의 위성으로 구성된 상용 열적 적외선 군집을 탑재한 우주 내 실시간 산불 감지 시스템을 제시합니다. 이 시스템은 demanding joint constraints(요구되는 통합 제약 조건) 하에서 작동하며, 이는 다음과 같습니다: sub-megabyte model footprint(sub-MB 모델 크기), NVIDIA Jetson Xavier NX 에서 TensorRT FP16 inference(TensorRT FP16 추론) 를 수행하는 per-batch latency(per-배치 지연 시간) 가 150 ms 미만인 경우, 그리고 위성 과도 (satellite overpass) 에서부터 화재 사건 통신 (fire event communication) 까지 end-to-end alert pipeline(end-to-end 알림 파이프라인) 이 10 분 이내를 목표로 하는 경우입니다. 시스템은 200 m ground sampling distance(지면 샘플링 거리) 의 uncalibrated mid-wave infrared (MWIR) single-band imagery(비교정된 중파 적외선(MWIR) 단일 대역 이미지) 에서 작동하며, 여기서 화재는 극심한 class imbalance(class 불균형) 하에서 sub-pixel 또는 single-pixel thermal anomalies(sub-픽셀 또는 single-픽셀 열적 이상 현상) 로 자주 나타납니다. 이는 현재 운영 중인 산불 감지에 dominance(우위) 를 차지하는 contextual thermal-thresholding pipelines(contextual thermal-thresholding 파이프라인)(MODIS, VIIRS) 이 해결하지 못하는 문제입니다. 우리는 proprietary nine-satellite MWIR dataset(proprietary 9 위성 MWIR 데이터셋) 을 사용하여 lightweight dense representation learning(lightweight dense representation 학습) 의 empirical study(empirical 연구) 를 제시합니다. 우리는 DenseMAE(DenseMAE) 와 hybrid DenseMAE+EMA(hybrid DenseMAE+EMA, exponential moving average) distillation variant(distillation 변형) 를 비교하며, extreme class imbalance(극심한 class 불균형) 하에서 linear probing(linear probing) 과 full-distribution pixel-level average precision(AP)(full-distribution pixel-level 평균 정확도 (AP)) 를 통해 representations(representations) 을 평가합니다. DenseMAE pretraining(DenseMAE pretraining) 은 latency-accuracy Pareto frontier(latency-accuracy Pareto frontier) 에서 compact downstream models(compact downstream 모델) 을 가능하게 합니다: 우리의 fastest SSL-pretrained model(fastest SSL-pretrained 모델) 은 65.34 ms per batch(per-배치 지연 시간) 과 0.52 MB engine(0.52 MB 엔진) 으로 test AP(test AP) 가 0.640, event-level Fire-F1(event-level Fire-F1) 이 0.69 입니다. 이는 pruning(compression) 없이 달성되었습니다. 최적의 구성은 1 MB 미만으로 0.699 AP(0.699 AP) 와 0.744 Fire-F1(0.744 Fire-F1) 을 달성하며, comparable constraints(comparable 제약 조건) 하에서 supervised baseline(supervised baseline)(0.650 AP) 을 상회합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AR의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0