수렴 보장 조건을 갖는 ADMM 과이완 정책 학습
요약
본 논문은 구조화된 볼록 최적화 문제를 해결하는 ADMM(Alternating Direction Method)의 성능을 향상시키기 위해 이완 매개변수를 온라인으로 업데이트하는 학습 정책을 제안합니다. 특히, 모델 예측 제어와 같이 반복적인 최적화가 필요한 환경에 초점을 맞추었으며, 계산적으로 효율적이면서도 수렴 보장을 갖는 방법을 제시했습니다. 벤치마크 테스트 결과, 이 학습된 정책은 기존의 기준 방법보다 반복 횟수와 실제 소요 시간 모두에서 성능 개선을 입증했습니다.
핵심 포인트
- ADMM의 실용적 성능은 페널티 및 이완 매개변수의 선택에 크게 의존한다.
- 본 연구는 ADMM의 이완 매개변수를 온라인으로 업데이트하는 학습 정책을 제안하여 성능 개선을 목표로 한다.
- 제안된 방법은 계산적으로 효율적이며, 행렬 재분해를 발생시키지 않아 OSQP와 같은 아키텍처에 적합하다.
- 약한 가정 하에서 시간 변화하는 매개변수를 갖는 ADMM에 대한 수렴 보장을 확립했다.
- 실험 결과, 학습된 정책은 기존 기준 방법 대비 반복 횟수 및 실제 소요 시간을 모두 개선하였다.
Multiplier Alternating Direction Method (ADMM) 은 구조화된 볼록 최적화 문제를 해결하는 데 널리 사용되는 방법이며, 그 실용적인 성능은 페널티 및 이완 매개변수의 선택에 크게 의존합니다. 모델 예측 제어 (MPC) 와 같이 고정된 구조와 변화하는 매개변수 값을 가진 관련 최적화 문제를 반복적으로 해결해야 하는 환경 등을 동기로, 관심 있는 문제 클래스에서 성능을 개선하기 위해 이완 매개변수의 온라인 업데이트를 학습하는 방법을 제안합니다. 이 선택은 OSQP 와 같은 아키텍처에서 계산적으로 매력적입니다. 왜냐하면 페널티 업데이트와 관련된 행렬 재분해 (matrix refactorizations) 를 발생시키지 않기 때문입니다. 우리는 약한 가정 하에 시간 변화하는 페널티 및 이완 매개변수를 갖는 ADMM 에 대한 수렴 보장을 수립하고, 벤치마크 2 차 계획 문제 (quadratic programs) 에서 학습된 정책이 기준 OSQP 보다 반복 횟수와 실제 소요 시간을 모두 개선함을 보여줍니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기