증거 기반 번역에서 프롬프트링으로: 일본어-중국어 번역을 위한 RAG+프롬프트 시스템과 그 교육적 잠재력
요약
본 연구는 일본어-중국어 번역의 신뢰성 문제를 해결하기 위해 RAG(Retrieval-Augmented Generation)와 프롬프팅을 결합한 시스템을 제안합니다. 이 시스템은 언어 분석 모듈과 위험 예측 기능을 통해 문맥적 정보를 추출하고, 이를 GPT-4o 기반의 향상된 프롬프트에 삽입하여 번역 품질을 높입니다. 테스트 결과, 지식 베이스 크기가 커질수록 BLEU 점수가 유의미하게 증가하며, RAG+프롬프트 접근 방식이 복잡한 문장 구조(NMCC)를 포함하는 일본어-중국어 번역 성능을 해석 가능하고 감사 가능한 방식으로 개선함을 입증했습니다.
핵심 포인트
- RAG와 프롬프팅 결합 시스템은 고자본 쌍에서 발생하는 언어적 신뢰성 문제를 해결할 수 있다.
- 시스템은 내부/외부 명사수식절(NMCC) 분석 및 위험 예측 기능을 통해 번역의 정확도를 높인다.
- 지식 베이스 크기가 커질수록 (0개 $ o$ 2,000개) BLEU 점수가 지속적으로 증가하는 경향을 보였다.
- 제안된 RAG+프롬프트 시스템은 복잡한 일본어-중국어 문장 구조를 해석 가능하고 감사 가능한 방식으로 번역 개선에 기여한다.
대규모 언어 모델은 고자본 쌍에서는 우수한 성능을 보이지만, 명사수식절 구조 (NMCC) 를 포함하는 일본어-중국어 문장은 신뢰성이 낮습니다. 본 연구는 기본 모델을 수정하지 않고 언어 분석, 임베딩 기반 검색, 프롬프트 구성 및 LLM 생성을 통합한 RAG+프롬프트 번역 시스템을 평가합니다. 분석 모듈은 A1(내부 vs 외부 NMCC) 과 A2 (위험 예측: 어휘 선택/NMCC 처리/문장 순서/스타일/레지스터) 를 출력하며, top-k = 5 개의 유사한 Ja-Zh 예시 (L2 거리) 와 A1/A2 는 향상된 프롬프트에 삽입됩니다. GPT-4o 와 66 문장의 테스트 세트를 사용하여 지식베이스 크기 0/100/200/500/1,000/2,000 을 비교했습니다. 거시 평균 문장 수준 BLEU (1-4 그램 + 간소화 페널티; 대문자 구분; 중국어는 문자 단위) 는 유일한 지표입니다. 평균 BLEU 는 0(RAG 비활성화) 에서 24.28 에서 2,000 에서 29.96 (+5.68; +23.4%) 으로 증가했습니다. 경향은 크기에 따라 유지되며, 더 큰 지식 베이스가 더 높은 점수를 얻습니다. 우리는 RAG+프롬프트 번역 시스템이 NMCC 를 포함하는 일본어-중국어 번역을 해석 가능하고 감사 가능한 방식으로 개선한다고 결론지었습니다. 한계는 하나의 기본 모델, 하나의 지표, 출판된 텍스트 및 상용 API 의 의존성이며, 향후 작업은 장르를 확장하고 언어 쌍과 평가 지표를 확대할 것입니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기