분해 및 주입을 통한 구성적 다단계 사실 오류 수정 (CECoR)
요약
본 논문은 외부 증거를 활용하여 부정확한 텍스트를 수정하는 사실 오류 수정(FEC)의 한계를 극복하기 위해 '구성적 오류 수정(CECoR)' 프레임워크를 제안합니다. CECoR은 다단계 명제를 해석 가능한 추론 단계로 분해하고, 제어된 왜곡을 주입하여 고품질 훈련 쌍을 합성하는 것이 핵심입니다. 이 방법은 지도 미세 조정과 강화 학습을 결합한 두 단계 학습 전략을 통해 사실적 정확도와 견고성을 높였으며, 다단계 오류 수정에서 우수한 성능을 입증했습니다.
핵심 포인트
- 기존 FEC 방법들은 단일 단계 수정에 효과적이지만, 여러 증거 소스를 통한 구성적 추론이 필요한 다단계 오류 처리에 어려움이 있었습니다.
- 제안된 CECoR은 다단계 명제를 해석 가능한 추론 단계로 분해하고, 제어된 왜곡을 주입하여 고품질 훈련 데이터를 합성하는 프레임워크입니다.
- CECoR은 지도 미세 조정(Supervised Fine-tuning)과 강화 학습(Reinforcement Learning)을 결합한 두 단계 학습 전략을 사용하여 모델의 정확도와 견고성을 향상시킵니다.
- 평가 결과, CECoR은 다단계 벤치마크에서 기존 방법론보다 강력한 성능을 보였으며, 단일 단계 수정에도 효과적으로 일반화됨을 입증했습니다.
사실 오류 수정 (Factual Error Correction, FEC) 은 외부 증거와 일관된 문장으로 부정확한 텍스트를 수정하는 것을 목표로 합니다. 최근 방법들은 단일 단계 수정에 효과적이지만, 여러 증거 소스를 통해 구성적 추론이 필요한 다단계 경우를 원자 단위로 취급하며 처리하기 어렵습니다. 이 문제는 제한된 쌍 데이터와 복잡한 추론 체인 내의 의미 오류 위치 찾기 어려움으로 인해 더욱 심화됩니다. 우리는 구성적 오류 수정을 위한 구성적 오류 수정을 위한 추론에 대한 합성 (Compositional Error Correction via Reasoning-aware Synthesis, CECoR) 을 제시합니다. CECoR 은 다단계 명제를 해석 가능한 추론 단계로 분해하고 제어된 왜곡을 주입하여 고품질 훈련 쌍을 합성하는 추론에 대한 프레임워크입니다. 두 단계 학습 전략은 감독 미세 조정과 강화 학습을 결합하여 사실적 정확도와 견고성을 향상시킵니다. 종합 평가는 CECoR 이 다단계 벤치마크에서 강력한 성능을 달성함을 보여줍니다. 이는 거리별 감독 방법과 소수 시 LLM 기반 모델보다 우수하며, 단일 단계 수정에도 효과적으로 일반화하고 잡음 있는 증거 하에서도 안정적임을 입증합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기