Squint 경계에서 $ ext{ln ln } T$ 항을 제거하는 방법에 관한 주석
요약
이 기술 주석은 전문가 경계(expert bound)의 파라미터 없는 학습에서 $\ln \ln T$ 인자를 제거하는 방법을 다룹니다. 저자는 이 방법이 Krichevsky--Trofimov 알고리즘의 사전 분포 변경과 동등함을 보이고, 나아가 Squint 알고리즘에 대한 데이터 독립적 경계에서도 동일한 아이디어를 적용할 수 있음을 제시합니다.
핵심 포인트
- 전문가 경계(expert bound) 학습에서 $\ln \ln T$ 인자를 제거하는 새로운 방법론을 소개합니다.
- 제안된 기법은 Krichevsky--Trofimov 알고리즘의 사전 분포 변경과 수학적으로 동등함을 증명했습니다.
- 이 아이디어를 Squint 알고리즘에 대한 데이터 독립적 경계(data-independent bound)를 개선하는 데 적용할 수 있습니다.
컴퓨터 과학 > 기계 학습
제목: Squint 경계에서 $ ext{ln ln } T$ 항을 제거하는 방법에 관한 주석
Abstract: Orabona 와 Pál [2016] 에서 우리는 전문가 경계 (expert bound) 의 파라미터 없는 학습 (parameter-free learning) 에서 $ ext{ln ln } T$ 인자를 제거하기 위해 이동된 KT 포텐셜 (shifted KT potentials) 을 도입했습니다. 이 짧은 기술 주석에서 저는 이것이 Krichevsky--Trofimov 알고리즘의 사전 분포 (prior) 를 변경하는 것과 동등함을 보여줍니다. 그런 다음, 저는 Squint 알고리즘에 대한 데이터 독립적 경계 (data-independent bound) 에서 $ ext{ln ln } T$ 인자를 제거하는 데 동일한 아이디어를 어떻게 사용할 수 있는지를 보여줍니다.
현재 브라우징 컨텍스트:
문헌 및 인용 도구
이 문서와 관련된 코드, 데이터 및 미디어
데모
추천 및 검색 도구
arXivLabs: 커뮤니티 협력자와 함께 실험적인 프로젝트
arXivLabs 는 협력자가 웹 사이트에서 직접 새로운 arXiv 기능을 개발하고 공유할 수 있는 프레임워크입니다.
arXiv 와 함께 일하는 개인과 조직 모두 개방성, 공동체, 우수성 및 사용자 데이터 프라이버시에 대한 우리의 가치를 수용하고 받아들였습니다. arXiv 는 이러한 가치에 헌신하며, 해당 가치를 준수하는 파트너와만 협력합니다.
arXiv 의 커뮤니티에 가치를 더할 프로젝트 아이디어가 있으신가요? arXivLabs 에 대해 자세히 알아보기.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기