본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 08. 17:03

Dynamic Treatment on Networks

요약

본 논문은 네트워크 구조를 고려한 동적인 치료(개입) 배치를 위한 프레임워크인 Q-Ising을 제안합니다. 이 방법론은 베이즈 동적 Ising 모델을 사용하여 단일 관찰 패널로부터 복잡한 네트워크 채택 역학을 추정하고, 연속 후속 잠재 상태를 통해 개입의 과거 기록을 보강합니다. 이를 바탕으로 오프라인 강화 학습(Offline RL)을 수행하여 최적의 동적 정책을 학습하며, 불확실성 정량화를 통해 해석 가능한 앙상블 정책을 제공합니다.

핵심 포인트

  • 네트워크에서의 효과적인 치료 배치는 단순히 노드의 중심성을 고려하는 것을 넘어, 개입이 확산을 통해 다음 타겟팅 대상을 변경시키는 동적 연쇄 반응을 예측해야 합니다.
  • 제안된 Q-Ising 파이프라인은 베이지안 동적 Ising 모델로 네트워크 채택 역학을 추정하고, 오프라인 강화 학습으로 최적의 동적 정책을 학습하는 3단계 구조를 가집니다.
  • 베이지안 접근 방식을 통해 결정에 대한 불확실성을 정량화할 수 있으며, 이는 해석 가능한 후속 앙상블 정책을 도출하는 데 핵심적인 역할을 합니다.
  • 제안된 방법론은 마이크로금융 네트워크 데이터 및 SIS 역학 시뮬레이션에서 기존의 정적 중심성 기반 전략보다 우수한 적응적 타겟팅 성능을 입증했습니다.

네트워크에서 효과적인 동적 치료 배치는 정책의 영향을 확산을 통해 증폭시키기 위해 누구를 치료할지, 그리고 언제를 결정해야 합니다. 잘 연결된 노드에서의 초기 개입은 다음 기간에 타겟팅할 가치가 있는 노드를 변경하는 연쇄 반응을 유발할 수 있습니다. 기존 네트워크 간섭 하의 치료 전략은 대부분 정적이며, 동적 치료 프레임워크는 일반적으로 네트워크 구조를 무시합니다. 우리는 이러한 관점을 통합하고 단일 관찰 패널로부터 베이esian 동적 Ising 모델을 통해 네트워크 채택 역학을 추정하고, (i) 연속 후속 잠재 상태를 통해 치료 채택 역사를 보충하며, (ii) 오프라인 강화 학습을 통해 동적 정책을 학습하는 Q-Ising이라는 3 단계 파이프라인을 제안합니다. 베이지안 메커니즘은 동적 결정에 대한 불확실성 정량화를 가능하게 하여 해석 가능한 확산 추정치를 가진 후속 앙상블 정책을 제공합니다. 우리는 표준 오프라인 RL 불확실성, 네트워크 추상화 오차, 그리고 Ising 상태 추정 1 단계 오차를 포함하는 유한 샘플 regret 상한선을 제공합니다. 우리는 인도 마을 마이크로금융 네트워크 데이터와 시뮬레이션된 이질적 감염-감염 (SIS) 역학 하의 합성 확률 블록 모델을 사용하여 적용하고 적응적 타겟팅이 정적 중심성 벤치마크보다 우수한 것을 증명합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0