본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 08. 16:58

ReActor: Reinforcement Learning for Physics-Aware Motion Retargeting

요약

본 논문은 강화학습(RL)을 활용하여 물리적 제약 조건을 고려한 로봇 모션 재목표(Retargeting) 프레임워크를 제안합니다. 기존 방법들이 겪던 미끄러짐이나 역학적 불가능성 같은 물리적 오류 문제를 해결하기 위해, 추적 정책 학습과 동시에 참조 모션을 로봇의 형태론에 적응시키는 이중 레벨 최적화(bilevel optimization) 방식을 사용했습니다. 이 프레임워크는 수동 튜닝 없이도 다양한 형태론에서 특징적인 운동을 보존하며 물리적으로 타당한 고품질 모션을 생성할 수 있음을 시뮬레이션 및 하드웨어 검증을 통해 입증했습니다.

핵심 포인트

  • 강화학습(RL) 기반의 이중 레벨 최적화 프레임워크를 사용하여 로봇 모션 재목표 문제를 해결함.
  • 물리 시뮬레이션을 직접 통합하여 발 미끄러짐이나 역학적으로 불가능한 운동과 같은 물리적 오류를 방지함.
  • 수동 튜닝 없이도 다양한 형태론(embodiment)에서 원본 모션의 특징적인 움직임을 보존할 수 있도록 설계됨.
  • quadruped와 같이 인간과 크게 다른 형태론에 대한 재목표 능력을 시뮬레이션 및 하드웨어로 검증함.

인간 운동학적 참조 모션을 로봇의 형태론에 재목표 (Retargeting) 하는 것은 여전히 난제입니다. 기존 방법들은 발 미끄러짐, 자기 간섭, 역학적으로 불가능한 운동 등 물리적 불일치를 생성하여 downstream imitation learning 을 방해합니다. 우리는 강화학습 (RL) 을 사용하여 추적 정책을 훈련하면서 참조 모션을 로봇의 형태론에 동시에 적응시키는 bilevel optimization framework 를 제안합니다. 최적화를 tractable 하게 만들기 위해 upper-level loss 의 근사 gradient 를 유도했습니다. 우리의 프레임워크는 의미 있는 rigid-body 대응 관계만 필요하며, 다양한 embodiment 에서 특징적인 운동 (characteristic motion) 을 보존하기 충분한 parameterization 의 최적 값을 식별함으로써 수동 튜닝의 필요성을 제거합니다. 또한 물리 시뮬레이션과 재목표 (retargeting) 를 직접 통합하여 robust imitation learning 을 용이하게 하는 물리적으로 타당한 운동을 생성했습니다. 우리는 시뮬레이션과 하드웨어에서 우리의 방법을 검증하여 인간과 크게 다른 형태론을 위한 도전적인 운동, 예를 들어 quadruped 에 대한 재목표를 입증했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.LG의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0