언어 모델 내의 문법 적절성 표현
요약
본 연구는 언어 모델(LMs)이 단순히 문자열의 가능성(likelihood)을 최대화하는 것과 별개로, 문법적 적절성을 암묵적으로 학습했는지 탐구한다. 자연주의 텍스트 코퍼스에 변형을 가한 문법적 및 비문법적 데이터셋을 사용하여 선형 프로브를 훈련시킨 결과, 이 프로브가 인간의 판단 기준에 일반화되며 기존 LM 확률 기반 방법보다 우수한 성능을 보였다. 또한, 이 프로브는 교차 언어 일반화 능력을 보여주었으며, 이는 LMs가 내부적으로 문법적 적절성 구분을 수행하고 있음을 시사한다.
핵심 포인트
- 언어 모델의 문자열 확률은 문법적/비문법적 구분에 한계가 있지만, 별도의 프로브를 통해 암묵적인 문법 적절성 구분이 가능함을 입증했다.
- 훈련된 문법 적절성 프로브는 인간이 정교화한 벤치마크에 일반화되며 기존 LM 확률 기반 판단을 능가하는 성능을 보였다.
- 해당 프로브는 교차 언어 일반화(cross-lingual generalization) 능력을 보여주었으며, 이는 LMs의 범용적인 문법 이해를 시사한다.
- 프로브 점수는 문자열 확률과 약한 상관관계를 가지며, 이는 LM이 내부적으로 별도의 문법적 지식을 보유하고 있음을 의미한다.
인간 언어에서 문법 적절성 (grammaticality) 과 가능성 (likelihood) 은 구별되는 개념입니다. corpus likelihood 를 최대화하도록 적합된 확률적 언어 모델 (LMs) 은 문법적으로 잘 구성된 텍스트를 생성하고, 엄밀하게 통제된 최소 쌍 (minimal pairs) 에서 문법적 및 비문법적 문장 사이의 구분을 잘 수행합니다. 그러나 그들의 문자열 확률 (string probabilities) 은 전반적으로 문법적 및 비문법적 문장 사이의 명확한 구분을 하지 못합니다. 하지만 LMs 은 문자열 확률과 구별되는 문법 적절성 구분 을 암묵적으로 획득했는가? 우리는 자연주의 텍스트 corpus 에 적용하여 변형 (perturbations) 을 가한 문법적 및 (합성된) 비문법적 문장 데이터셋에서 선형 probe 를 훈련함으로써 이 질문을 탐구합니다. 우리는 이 간단한 문법 적절성 probe 가 인간이 정교화한 문법 적절성 판단 벤치마크에 일반화되며, LM 확률 기반 문법 적절성 판단 을 능가함을 발견합니다. 그러나 최소 쌍의 두 구성원이 모두 문법적이며 오직 가능성 (plausibility) 만이 다른 의미적 타당성 벤치마크 (semantic plausibility benchmarks) 에 적용될 때 probe 는 문자열 확률보다 성능이 떨어집니다. 영어를 훈련한 probe 는 또한 많은 다른 언어에서 문자열 확률을 능가하는 교차 언어 일반화 (cross-lingual generalization) 를 나타냅니다. 또한, probe 점수는 문자열 확률과 약하게만 상관관계를 가집니다. 이러한 결과는 LMs 이 그들의 숨겨진 레이어 (hidden layers) 내에서 일정 부분 암묵적인 문법 적절성 구분 을 획득함을 collectively 시사합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기