본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 01. 15:59

Prediction-powered Inference by Mixture of Experts

요약

본 논문은 예측기들의 집합을 전문가 혼합 모델(MOE)로 활용하여 반지도학습 추론(semi-supervised inference)을 수행하는 프레임워크를 제안합니다. 이 '예측 기반 추론(PPI)' 프레임워크는 분산 감소 원리에 기반하여, 주어진 예측기들의 집단적 힘을 활용해 가장 작은 분산을 달성하는 최적의 MOE를 찾습니다. 이를 통해 개별 모델의 불확실성을 보완하고 강력한 성능을 제공하며, 평균 추정, 선형 회귀 등 다양한 통계적 문제에 적용 가능함을 입증했습니다.

핵심 포인트

  • MOE(Mixture of Experts)를 활용하여 반지도학습 추론(semi-supervised inference) 프레임워크를 구축했습니다.
  • 제안된 '예측 기반 추론(PPI)'은 분산 감소 원리를 이용해 여러 예측기의 집단적 힘을 극대화합니다.
  • 이 프레임워크는 개별 모델의 성능 불확실성을 보완하고, 최적 전문가를 보장하는 강력한 추정 능력을 제공합니다.
  • 평균 추정, 선형 회귀 등 다양한 통계적 문제에 적용 가능하며, 비점근적 이론 및 신뢰구간 분석을 제시했습니다.

급속히 확장되고 있는 인공지능 (AI) 산업은 각기 고유한 네트워크 구조, 학습 전략, 데이터 처리 파이프라인 및 도메인별 강점을 지닌 다양하면서도 강력한 예측 도구들을 만들어냈다. 이러한 도구들은 레이블이 지정된 데이터가 제한적이고 획득 비용이 높지만, 반면에 레이블이 지정되지 않은 데이터는 풍부하고 널리 이용 가능한 상황에서 반지도학습 추론 (semi-supervised inference) 을 위한 새로운 기회를 창출한다. 주어진 예측기들의 집합을 전문가 혼합 모델 (mixture of experts, MOE) 로 취급하며, 예측 기반 추론 (prediction-powered inference, PPI) 에 기반한 MOE 기반 반지도학습 추론 프레임워크를 제안한다. PPI 의 근본에 있는 분산 감소 원리에 동기 부여된 본 프레임워크는 가능한 가장 작은 분산을 달성하는 전문가 혼합 모델을 찾는다. 표준 PPI 와 비교하여, MOE 기반 추론 프레임워크는 개별 예측기의 알려지지 않은 성능에 적응하고, 그들의 집단적 예측 힘을 활용하며, 최선 전문가 보장 (best-expert guarantee) 을 누린다. 이 프레임워크는 유연하며 평균 추정, 선형 회귀, 양수추정 및 일반적인 M-추정에 적용된다. 우리는 MOE 기반 추론 프레임워크에 대한 비점근적 이론을 개발하고, 결과 신뢰구간의 커버리지 오버의 상한계를 확립한다. 수치 실험은 MOE 기반 추론의 실용적 유효성을 입증하고 우리의 이론적 발견을 뒷받침한다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0