본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 07. 17:28

Elicitation Matters: Prompts 및 Query Protocols이 Sparsely Observing 환경에서 LLM

요약

본 논문은 데이터가 부족한 희소 관측 환경에서 대규모 언어 모델(LLM)을 대리 모델로 활용하는 방식을 연구합니다. LLM이 유도하는 '대리 신념'이 프롬프트 텍스트와 쿼리 프로토콜에 크게 의존함을 밝히고, 이를 측정하기 위한 불확실성 정렬 기준을 제안했습니다. 실험 결과, 구조화된 프롬프트를 사용하면 효과적인 사전 확률로 작용하며, 다양한 쿼리 방식(POINTWISE, JOINT)과 순차적 증거는 비모노토닉하고 순서에 민감한 신뢰도 업데이트를 유발함을 보여주었습니다.

핵심 포인트

  • LLM을 희소 관측 환경의 대리 모델로 사용할 때, LLM이 생성하는 '대리 신념'은 입력 프롬프트와 쿼리 프로토콜에 강하게 의존한다.
  • 연구진은 불확실성 정렬 기준(uncertainty-alignment criterion)을 도입하여 샘플 일관성 함수 간의 잔여 모호성과 모델 불확실성의 일치 여부를 측정할 수 있게 했다.
  • 구조화된 프롬프트는 최적화 과정에서 유용한 사전 확률 역할을 수행한다.
  • 쿼리 방식(POINTWISE vs. JOINT)과 증거의 순서는 신뢰도 업데이트에 영향을 미치며, 이 효과가 후속 획득 결정과 누적 오차(regret)를 변화시킨다.

대규모 언어 모델은 데이터가 부족한 최적화 문제를 해결하기 위해 대리 모델 (surrogate models) 로 사용되고 있지만, 최적화기 (optimizer) 가 받는 예측값과 그 불확실성은 여전히 잘 이해되지 않았습니다. 우리는 희소 관측 (sparse observations) 환경에서 LLM 에서 유도된 대리 신념 (surrogate belief) 을 연구하여, 이는 프롬프트 텍스트와 쿼리 프로토콜에 강하게 의존함을 보여줍니다. 우리는 샘플 일관성 함수들 사이의 잔여 모호성 (residual ambiguity among sample-consistent functions) 과 모델 불확실성이 일치하는지 측정하는 불확실성 정렬 기준 (uncertainty-alignment criterion) 을 소개합니다. 통제된 추론 과제와 베이지안 최적화 연구에서, 구조적 프롬프트는 효과적인 사전 확률로 작용하며, POINTWISE 와 JOINT 쿼리는 다른 신념을 유도하고, 순차적 증거는 비모노토닉 (non-monotonic), 순서 민감한 신뢰도 업데이트를 유발함을 찾았습니다. 이러한 효과들은 후속 획득 결정과 regret 를 변화시키며, elicitation protocol 이 LLM surrogate 의 스펙ification 이 아니라 형식화 세부 사항에 불과함을 보여줍니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0