일반적인 거리 손실 (Metric Losses) 에 대한 실현 가능한 Bayes-Consistency 강건성 연구
요약
본 논문은 일반적인 거리 손실을 가진 실현 가능한(realizable) 설정에서 강력한 보편적 Bayes-consistency를 연구하며, 기존의 분류 및 실수값 회귀 문제를 넘어선 고전적인 특징화를 제시합니다. 저자들은 모든 실현 가능한 데이터 생성 분포에 대해 위험이 가장 좋은 클래스 내 위험(0)으로 거의 확실하게 수렴하는 분포 독립적 학습 규칙이 존재하는 가설 클래스 $\mathcal H$에 대한 필요충분 조건을 찾습니다. 주요 기여로는 Littlestone 트리를 거리 손실 설정으로 확장한 무한 증가 $(\gamma_k)$-Littlestone 트리가 있습니다.
핵심 포인트
- 일반적인 거리 손실을 가진 실현 가능한 설정에서 Bayes-consistency를 연구함.
- 데이터 분포에 독립적이며, 위험이 0으로 수렴하는 학습 규칙의 필요충분 조건을 제시함.
- 기존 분류/회귀 문제를 넘어선 고전적인 특징화를 확장함.
- Littlestone 트리를 거리 손실(metric loss) 설정으로 일반화한 $(\gamma_k)$-Littlestone 트리를 도입함.
우리는 일반적 거리 손실 (general metric losses) 을 가진 실현 가능한 설정 (realizable setting) 에서 강한 보편적 Bayes-consistency 를 연구하며, $0$-$1$ 분류 (classification) 와 실수값 회귀 (real-valued regression) 를 넘어선 고전적인 특징화 (classical characterizations) 를 확장합니다 \
주어진 인스턴스 공간 $(\mathcal X,ρ)$, possibly unbounded loss 를 가진 라벨 공간 $(\mathcal Y,\ell)$ 과 가설 클래스 $\mathcal H \subseteq \mathcal Y^{\mathcal X}$를 가정할 때, 우리는 \citet{pmlr-v178-cohen22a}에서 제시된 열린 문제 (open problem) 의 실현 가능한 경우를 해결합니다. 구체적으로, 모든 실현 가능한 데이터 생성 분포 (realizable data-generating distribution) 에 대해 위험 (risk) 이 가장 좋은 클래스 내 위험 (best-in-class risk, 즉 0) 으로 거의 확실하게 수렴하는 (almost surely converges to the best-in-class risk (which is zero)) 분포 독립적 학습 규칙 (distribution-free learning rule) 이 존재하는 가설 클래스 $\mathcal H$에 대한 필요 및 충분 조건을 찾습니다.
우리의 주요 기여는 조합적 장애물 (combinatorial obstruction) 을 기반으로 한 날카로운 특징화입니다: \citet{attias2024optimallearnersrealizableregression}와 유사하게, 우리는 $\gamma_k \to \infty$인 무한 증가 $(\gamma_k)$-Littlestone 트리를 소개합니다. 이는 \citet{bousquet_theory_2021}에서 사용된 Littlestone 트리 구조를 거리 손실 (metric loss) 설정으로 확장합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기