본문으로 건너뛰기

© 2026 Molayo

arXiv중요논문2026. 04. 24. 22:00

양자화 인식 이미지 개선: 모바일 환경 최적화를 위한 새로운 접근법

요약

모바일 기기에서 고품질 이미지를 빠르게 처리하는 것은 큰 과제입니다. 기존의 이미지 향상 모델은 저정밀도(low-precision)로 변환될 때 성능이 급격히 떨어지는 '훈련-배포 격차'를 겪습니다. 본 논문에서는 이 문제를 해결하기 위해 게이트 인코딩과 다중 스케일 정제 기법을 결합한 효율적인 모델을 제안합니다. 특히, 양자화 인식 학습(Quantization-Aware Training, QAT)을 도입하여 실제 모바일 환경의 저정밀도 영향을 미리 시뮬레이션함으로써, 높은 화질 유지와 낮은 연산 오버헤지를 동시에 달성하는 방법을

핵심 포인트

  • 제안된 모델은 게이트 인코딩 블록과 다중 스케일 정제(Multi-Scale Refinement)를 활용하여 미세한 시각적 특징을 보존합니다.
  • 핵심적으로, 양자화 인식 학습(QAT)을 적용하여 저정밀도 환경에서의 성능 저하 문제를 근본적으로 해결했습니다.
  • 실험 결과, 제안된 방법은 높은 충실도의 시각적 출력을 유지하면서도 모바일 기기에 적합한 낮은 연산 오버헤지를 입증했습니다.

Bridging the Training-Deployment Gap: Gated Encoding and Multi-Scale Refinement for Efficient Quantization-Aware Image Enhancement

Image enhancement models for mobile devices often struggle to balance high output quality with the fast processing speeds required by mobile hardware. While recent deep learning models can enhance low-quality mobile photos into high-quality images, their performance is often degraded when converted to lower-precision formats for actual use on mobile phones. To address this training-deployment mismatch, we propose an efficient image enhancement model designed specifically for mobile deployment. Our approach uses a hierarchical network architecture with gated encoder blocks and multiscale refinement to preserve fine-grained visual features. Moreover, we incorporate Quantization-Aware Training (QAT) to simulate the effects of low-precision representation during the training process. This allows the network to adapt and prevents the typical drop in quality seen with standard post-training quantization (PTQ). Experimental results demonstrate that the proposed method produces high-fidelity visual output while maintaining the low computational overhead needed for practical use on standard mobile devices. The code will be available at https://github.com/GenAI4E/QATIE.git.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0