Extreme bandits
요약
본 논문은 의학, 보안 등 다양한 분야에서 제한된 자원을 여러 출처에 순차적으로 할당할 때, 단순히 평균 보상을 최대화하는 것을 넘어 가장 극단적인 값(outlier)을 탐지하는 효율적인 방법을 연구합니다. 기존 밴디트 이론이 주로 '최대 평균 보상'의 후회(regret)를 다루는 것과 달리, 본 연구에서는 출처가 출력한 가장 극단적인 값을 탐지하는 데 초점을 맞춘 '극단적 후회(extreme regret)' 개념을 도입합니다. 이를 위해 ExtremeHunter라는 새로운 알고리즘을 제안하고, 이론적 분석 및 실제 세계 실험을 통해 그 성능을 검증했습니다.
핵심 포인트
- 기존 밴디트 이론은 주로 최대 평균 보상에 대한 후회(regret)를 최소화하는 데 초점을 맞춘다.
- 본 연구는 네트워크 침입 탐지 등 극단적인 값(outlier) 탐지가 중요한 분야의 특성을 반영하여 '극단적 후회(extreme regret)' 개념을 도입했다.
- 제안된 ExtremeHunter 알고리즘은 제한된 자원 하에서 가장 꼬리가 무거운 출처를 효율적으로 선택하도록 설계되었다.
- 알고리즘의 성능은 합성 데이터와 실제 세계 실험 환경에서 경험적으로 평가되었다.
의학, 보안, 생명과학 등 많은 분야에서 우리는 극단적인 값을 탐지하기 위해 제한된 자원을 다양한 출처에 할당하고자 합니다. 본 논문에서는 제한된 피드백 하에서 이러한 자원을 순차적으로 할당하는 효율적인 방법을 연구합니다. 실험의 순차적 설계는 밴디트 이론에서 잘 연구되어 왔지만, 가장 일반적으로 최적화되는 속성은 최대 평균 보상 (maximum mean reward) 에 대한 후회 (regret) 입니다. 그러나 네트워크 침입 탐지 (network intrusion detection) 와 같은 다른 문제에서는 출처가 출력한 가장 극단적인 값을 탐지하는 데 관심이 있습니다. 따라서 본 연구에서는 오라클 정책 (oracle policy) 이 꼬리가 가장 무거운 출처를 선택하는 것과 비교하여 알고리즘의 효율성을 측정하는 극단적 후회 (extreme regret) 를 연구합니다. 우리는 ExtremeHunter 알고리즘을 제안하고, 이에 대한 분석을 제공하며, 합성 데이터와 실제 세계 실험에서 이를 경험적으로 평가합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기