본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 07. 00:39

베이지안 불확실성 정량화에서 연산적 변분 추론: 후방 및 예측 분포의 공동 학습

요약

본 논문은 베이지안 예측 추론의 계산적 비효율성을 해결하기 위해 새로운 변분 베이지안 프레임워크를 제안합니다. 기존 방식이 후방 분포 근사 후 몬테카를로 시뮬레이션을 통해 예측을 수행하는 두 단계 절차인 반면, 이 방법은 후방 및 이에 대응하는 예측 분포를 공동으로 학습하여 계산 비용을 크게 줄입니다. 특히 연산적(amortized) 방식으로 변분 분포를 훈련함으로써, 고충실도 모델에서도 정확도를 유지하면서 온라인 추론 속도를 향상시킬 수 있습니다.

핵심 포인트

  • 베이지안 예측 추론의 기존 두 단계 워크플로우는 계산 비용이 높다.
  • 제안된 변분 프레임워크는 후방 분포와 예측 분포를 공동으로 근사하여 효율성을 높인다.
  • 클라임-라이블 발산과 모멘트 기반 정규화 항을 사용하여 최적화를 수행한다.
  • 연산적(amortized) 훈련 방식을 통해 온라인 추론 비용을 현저히 줄이고 정확도를 유지한다.

베이지안 예측 추론은 모델 매개변수의 불확실성을 후방-예측 분포 (posterior-predictive distribution) 를 통해 관심 있는 양에 전파합니다. 실제 응용에서는 일반적으로 두 단계 절차로 수행됩니다: 먼저 모델 매개변수의 후방 분포를 근사하고, 그 다음 몬테카를로 시뮬레이션을 통해 예측 모델을 통해 후방 샘플을 전파합니다. 이 순차적 워크플로는 특히 편미분 방정식 (partial differential equations) 과 같은 고충실도 모델에서 계산 비용이 큽니다. 우리는 변분 베이지안 프레임워크를 제안하며, 이는 후방-예측 분포를 직접적으로 목표로 하고 후방 및 이에 대응하는 예측 분도의 변분 근사를 공동으로 학습합니다. 이 공식화는 클라임-라이블 발산 (Kullback--Leibler divergence) 의 변분 상한과 모멘트 기반 정규화 항을 도입합니다. 변분 분포는 연산적 (amortized) 방식으로 훈련되며, 계산 비용을 오프라인 단계로 이동시키고 효율적인 온라인 추론을 가능하게 합니다. 해석적 벤치마크부터 유한 요소 고체역학 문제까지의 수치 실험은 제안된 방법이 기존의 두 단계 변분 추론보다 더 정확한 예측 분포를 달성하며, 동시에 온라인 예측 추론 비용을 현저히 줄임 있음을 보여줍니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0