본문으로 건너뛰기

© 2026 Molayo

arXiv중요논문2026. 04. 24. 21:37

프롬프트가 시각을 압도할 때: LVLM의 환각 현상 분석 및 개선 방안

요약

대규모 비전-언어 모델(LVLMs)은 뛰어난 성능에도 불구하고, 시각적 입력에 근거하지 않은 '환각(hallucinations)' 문제에 취약합니다. 본 논문은 이 문제를 해결하기 위해 새로운 벤치마크인 HalluScope를 제안하고, 환각의 주원인이 텍스트 기반 사전 지식(textual priors) 과도한 의존성임을 밝혀냈습니다. 이를 개선하기 위한 방법론으로, 선호도 최적화 (Preference Optimization) 기법을 활용하는 HalluVL-DPO 프레임워크를 제시합니다. 이 방법을 통해 모델이 시각적으로 근거 있는(

핵심 포인트

  • LVLMs의 환각 현상은 비전 백본이나 언어 컴포넌트 중 어느 것이 주원인인지 불분명했으나, 본 연구는 텍스트 기반 사전 지식 의존성이 주요 원인임을 밝혀냈습니다.
  • 새로운 평가 벤치마크 'HalluScope'를 통해 환각의 정도와 유발 요인을 체계적으로 분석할 수 있게 되었습니다.
  • 환각을 줄이기 위해, 선호도 최적화(Preference Optimization) 기반의 HalluVL-DPO 프레임워크를 제안하여 LVLMs 미세 조정 방법을 제시했습니다.
  • HalluVL-DPO로 튜닝된 모델은 특정 환각 실패 모드를 효과적으로 완화하면서 다른 비전 능력 평가에서도 성능을 유지하거나 향상시킵니다.

Despite impressive progress in capabilities of large vision-language models (LVLMs), these systems remain vulnerable to hallucinations, i.e., outputs that are not grounded in the visual input. Prior work has attributed hallucinations in LVLMs to factors such as limitations of the vision backbone or the dominance of the language component, yet the relative importance of these factors remains unclear.

To resolve this ambiguity, We propose HalluScope, a benchmark to better understand the extent to which different factors induce hallucinations. Our analysis indicates that hallucinations largely stem from excessive reliance on textual priors and background knowledge, especially information introduced through textual instructions. To mitigate hallucinations induced by textual instruction priors, we propose HalluVL-DPO, a framework for fine-tuning off-the-shelf LVLMs towards more visually grounded responses. HalluVL-DPO leverages preference optimization using a curated training dataset that we construct, guiding the model to prefer grounded responses over hallucinated ones. We demonstrate that our optimized model effectively mitigates the targeted hallucination failure mode, while preserving or improving performance on other hallucination benchmarks and visual capability evaluations. To support reproducibility and further research, we will publicly release our evaluation benchmark, preference training dataset, and code at https://pegah-kh.github.io/projects/prompts-override-vision/

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0