Large Language Diffusion Models을 위한 불확실성 정량화 (Uncertainty Quantification)
요약
본 논문은 Large Language Diffusion Models (LLDMs)의 안전한 배포를 위해 불확실성 정량화(Uncertainty Quantification, UQ) 방법을 제시합니다. 기존 UQ 방법들이 LLDM의 효율성을 저해하는 문제를 해결하기 위해, 본 연구는 중간 생성물, 토큰 재마스킹 역학, 디노이징 복잡도를 활용하여 경량화된 제로샷 불확실성 신호를 개발했습니다. 이 방법은 계산 오버헤드를 크게 줄이면서도 강력한 샘플링 기반 베이스라인에 근접하는 뛰어난 비용 대비 성능을 달성하며, LLDM의 빠른 추론과 신뢰할 수 있는 환각 탐지를 동시에 가능하게 합니다.
핵심 포인트
- LLDMs는 자기회귀 모델의 대안으로 부상하고 있으나, 안전한 배포를 위해 불확실성 정량화(UQ)가 필수적입니다.
- 기존 UQ 방법들은 LLDM의 효율성을 저해하는 문제점을 가지고 있어 새로운 접근 방식이 필요합니다.
- 본 연구는 중간 생성물 및 디노이징 복잡도를 활용하여 계산 오버헤드가 낮은 제로샷 불확실성 신호를 제안했습니다.
- 제안된 방법은 마스크된 확산 가능도와 궤적 기반 의미론적 유사성 결여를 결합하여 최첨단 UQ 성능을 달성합니다.
- 계산 오버헤드를 최대 100배 낮추면서 강력한 샘플링 기반 베이스라인에 근접하는 뛰어난 비용 대비 성능을 입증했습니다.
Large Language Diffusion Models (LLDMs)는 더 높은 병렬성을 통해 더 빠른 추론을 제공하며 자기회귀 (Autoregressive) 모델의 대안으로 부상하고 있습니다. 자기회귀 LLM과 마찬가지로, 이 모델들 또한 환각 (Hallucination) 현상에 취약하므로 안전한 배포를 위해서는 신뢰할 수 있는 불확실성 정량화 (Uncertainty Quantification, UQ)가 매우 중요합니다. 그러나 기존의 UQ 방법들은 이 새로운 패러다임과 근본적으로 맞지 않습니다. 기존 방법들은 자기회귀적 인수분해 (Autoregressive factorization)를 가정하거나 비용이 많이 드는 반복적인 샘플링 (Repeated sampling)을 사용하며, 이는 LLDM의 효율성을 상쇄합니다. 본 연구에서는 LLDM을 위한 UQ에 대한 최초의 체계적인 연구를 제시하며, 중간 생성물 (Intermediate generations), 토큰 재마스킹 역학 (Token remasking dynamics), 그리고 디노이징 복잡도 (Denoising complexity)를 활용하여 반복적인 디노이징 (Denoising) 과정에서 도출되는 경량화된 제로샷 (Zero-shot) 불확실성 신호를 제안합니다. 나아가, 우리는 마스크된 확산 가능도 (Masked diffusion likelihoods)와 궤적 기반의 의미론적 유사성 결여 (Trajectory-based semantic dissimilarity)를 결합하여 최첨단 UQ 방법을 LLDM에 맞게 조정합니다. 우리는 기대 궤적 유사성 결여 (Expected trajectory dissimilarity)가 마스크된 확산 학습 목적 함수 (Masked diffusion training objective)의 하한선 (Lower bound)임을 증명하며, 이는 이를 불확실성 점수로 사용하는 동기가 됩니다. 세 가지 작업, 여덟 개의 데이터셋, 그리고 두 개의 모델에 걸친 종합적인 실험을 통해 우리의 방법이 뛰어난 비용 대비 성능 (Cost-performance trade-off)을 달성함을 보여줍니다. 즉, 가장 강력한 샘플링 기반 베이스라인 (Sampling-based baselines)에 근접하면서도 계산 오버헤드 (Computational overhead)는 최대 100배 더 낮습니다. 우리의 연구는 LLDM이 빠른 추론과 신뢰할 수 있는 환각 탐지를 동시에 제공할 수 있음을 입증합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기