Edit-level Majority Voting을 통한 LLM 기반 문법 오류 교정 (GEC)의 과잉 교정 문제 완화
요약
본 기사는 LLM 기반 문법 오류 교정(GEC)의 주요 문제인 과잉 교정을 완화하기 위한 새로운 Training-free 추론 방법을 제안합니다. 이 방법은 모델 수정이나 추가 학습 없이, 단일 모델이 생성한 여러 후보군에 대해 Edit-level Majority Voting을 수행하는 것이 핵심입니다. 영어, 체코어 등 9개 언어의 다양한 벤치마크에서 테스트되었으며, 기존 방식보다 우수한 성능과 안정적인 교정 품질을 입증했습니다.
핵심 포인트
- LLM 기반 GEC는 과잉 교정(over-correction) 문제를 겪는 경향이 있습니다.
- 제안된 방법은 모델 수정이나 추가 학습 없이 Edit-level Majority Voting을 활용하는 Training-free 추론 방식입니다.
- 9개 언어에 걸친 다양한 벤치마크에서 Greedy decoding 및 MBR decoding보다 우수한 성능을 보였습니다.
- 사용되는 Instruction Prompt와 관계없이 안정적인 교정 품질을 제공합니다.
Large Language Models (LLM)를 이용한 문법 오류 교정 (Grammatical Error Correction, GEC)은 종종 과잉 교정 (over-correction) 문제로 어려움을 겪습니다. 이를 완화하기 위해, 우리는 모델 수정이나 추가 학습 없이 단일 모델이 생성한 여러 후보군에 대해 Edit-level Majority Voting을 수행하는 Training-free 추론 방법을 제안합니다. 영어, 체코어, 독일어, 우크라이나어, 한국어, 힌디어, 루마니아어를 아우르는 9개의 벤치마크 전반에서, 제안된 방법은 대부분의 경우 Greedy decoding 및 MBR (Minimum Bayes Risk) decoding보다 우수한 성능을 보입니다. 또한, 사용된 Instruction Prompt와 관계없이 안정적인 교정 품질을 제공합니다. 우리는 GEC 데이터셋 로딩과 LLM 추론을 지원하는 두 개의 Repository를 공개합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기