본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 13. 05:37

Vision-Language-Action 모델을 위한 백도어 기반 소유권 검증 방향성

요약

Vision-Language-Action (VLA) 모델은 다중 모드 입력 기반의 엔드투엔드 의사결정 정책을 제공하여 범용 로봇 제어에 활용됩니다. VLA 모델의 공유 및 적응이 증가함에 따라, 안전한 배포와 소유권 보호가 중요해졌습니다. 본 논문에서는 VLA를 위해 특별히 설계된 백도어 기반 소유권 검증 프레임워크인 GuardVLA를 제시하며, 이는 비밀 메시지를 주입하여 모델에 은밀하고 무해한 워터마크를 삽입합니다.

핵심 포인트

  • Vision-Language-Action (VLA) 모델은 다중 모드 입력 기반의 로봇 제어 및 의사결정 정책을 지원한다.
  • 모델 공유 증가에 따라 VLA 모델의 소유권 보호와 안전한 배포가 필수적인 과제가 되었다.
  • GuardVLA는 VLA를 위한 최초의 백도어 기반 소유권 검증 프레임워크이다.
  • 이 프레임워크는 비밀 메시지를 주입하여 모델에 은밀하고 무해한 워터마크를 삽입하는 방식으로 작동한다.

Vision-Language-Action 모델(VLAs)은 다중 모드 입력으로부터 직접 엔드투엔드 의사결정 정책을 가능하게 함으로써 범용 로봇 제어를 지원합니다. 훈련된 VLA가 공유되고 적응되는 사례가 증가함에 따라, 안전한 배포와 책임감 있는 오픈 소스 사용을 위해 모델의 소유권을 보호하는 것이 필수적이 되었습니다. 본 논문에서는 VLA를 위해 특별히 설계된 최초의 백도어 기반 소유권 검증 프레임워크인 GuardVLA를 제시합니다. GuardVLA는 비밀 메시지를 주입하여 훈련 과정 중 보호되는 모델에 은밀하고 무해한 백도어 워터마크를 삽입합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0