본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 07. 17:46

변환된 잠재 변수 다중 출력 가우시안 프로세스 (T-LVMOGP)

요약

T-LVMOGP(Transformed Latent Variable MOGP)는 고차원 출력 공간의 데이터셋에 적용되는 다중 출력 가우시안 프로세스(MOGPs)의 확장성 문제를 해결하기 위해 제안된 새로운 프레임워크입니다. 이 모델은 Lipschitz 정규화 신경망을 사용하여 입력과 출력 특이 잠재 변수를 임베딩함으로써 유연한 다중 출력 심층 커널을 구성합니다. 확률적 변분 추론과 결합되어, 10,000개 이상의 출력을 가진 복잡한 데이터셋에서도 높은 예측 정확도와 계산 효율성을 입증했습니다.

핵심 포인트

  • T-LVMOGP는 고차원 출력 공간의 MOGPs 확장성 문제를 해결하는 새로운 프레임워크이다.
  • Lipschitz 정규화 신경망을 사용하여 입력 및 출력 특이 잠재 변수를 임베딩하여 유연한 다중 출력 심층 커널을 구성한다.
  • 확률적 변분 추론(stochastic variational inference)과 결합되어 대규모 고차원 데이터셋에 효과적으로 적용 가능하다.
  • 기후 모델링 및 공간 전사체학 등 다양한 벤치마크에서 기존 기법 대비 우수한 예측 정확도와 계산 효율성을 보였다.

다중 출력 가우시안 프로세스 (Multi-Output Gaussian Processes, MOGPs) 는 상관관계가 있는 출력을 모델링하기 위한 체계적인 확률적 프레임워크를 제공하지만, 고차원 출력 공간의 데이터셋에 적용될 경우 확장성 병목 현상을 겪습니다. tractability 를 유지하기 위해 기존 방법들은 일반적으로 저랭크 또는 분리 가능한 커널의 합과 같은 제한적인 가정을 사용하는 경향이 있어 표현력이 제한될 수 있습니다.

우리는 T-LVMOGP (Transformed Latent Variable MOGP) 을 제안합니다. 이는 의미 있는 출력 간 의존성을 포착할 능력을 유지하면서 다중 출력 MOGP 를 대량으로 확장할 수 있는 새로운 프레임워크입니다. T-LVMOGP 는 Lipschitz-regularised neural network 를 사용하여 입력과 출력 특이 잠재 변수 (output-specific latent variables) 를 임베딩 공간으로 매핑함으로써 유연한 다중 출력 심층 커널을 구성합니다. 확률적 변분 추론 (stochastic variational inference) 과 결합된 우리 모델은 고차원 출력 설정에 효과적으로 확장할 수 있습니다.

다양한 벤치마크를 통해, 10,000 개 이상의 출력과 함께 기후 모델링 및 제로 인플레이션 공간 전사체학 데이터 (zero-inflated spatial transcriptomics data) 를 포함한 경우, T-LVMOGP 는 예측 정확도와 계산 효율성 모두에서 기존 기법보다 우위를 보입니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0