본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 05. 16:35

의미 역할 레이블링 (SRL) 재검토: 의존성 기반 분석을 활용한 효율적인 구조적 추론

요약

본 기사는 의미 역할 레이블링(SRL) 모델링을 재검토하고, 현대화된 인코더 기반 프레임워크를 제안합니다. 기존의 시스템들이 가진 구조적 명시성 부족 문제를 해결하기 위해 의존성 기반 분석 방법을 채택하여 추론 속도를 획기적으로 개선했습니다. 이 새로운 프레임워크는 BERT, RoBERTa, DeBERTa 등 다양한 최신 인코더 모델을 활용하며, 특히 의존성 단서가 구조적 안정성을 높여 다운스트림 다국어 SRL 응용 프로그램에 효과적임을 입증합니다.

핵심 포인트

  • SRL 시스템은 누가 무엇을 누구에게 했는지와 같은 명시적인 술어-명사 관계를 포착하는 데 중요함.
  • 기존의 NLP 프레임워크(예: AllenNLP)는 유지보수 문제로 인해 현대적 요구사항에 한계가 있음.
  • 제안된 모델은 의존성 기반 진단 방법을 채택하여 구조적 SRL을 재검토하고, 추론 속도를 10배 개선함.
  • BERT-base를 기본으로 하며 RoBERTa와 DeBERTa 등을 통합하여 높은 예측 성능과 F1 점수 향상을 달성함.
  • 명시적인 술어-명사 구조는 다국어 SRL 프로젝트의 다운스트림 응용 프로그램에 활용될 수 있음.

의미 역할 레이블링 (Semantic Role Labeling, SRL) 은 술어-명사 관계의 명시적 표현을 제공하여 누가 무엇을 누구에게 했는지와 같은 언어학적으로 근거된 관계를 포착합니다. 최근 자연어 처리 (NLP) 의 발전은 대규모 언어 모델 (Large Language Models, LLMs) 에 의해 주도되어 왔으나, 이러한 시스템은 종종 암묵적인 의미 표현에 의존하며 명시적인 구조적 제약과 체계적인 설명 메커니즘이 부족합니다. 전통적으로 SRL 시스템은 AllenNLP 를 많이 사용했지만, 이 프레임워크는 2022 년 12 월에 유지보수 모드로 전환되어 진화하는 인코더 아키텍처와 현대적인 추론 요구사항과 호환성을 제한했습니다. 우리는 구조적 SRL 모델링을 재검토하여 명시적인 술어-명사 구조를 유지하면서 추론 속도를 10 배로 개선할 수 있는 현대화된 인코더 기반 프레임워크를 소개합니다. BERT-base 를 사용하여 모델은 유사한 예측 성능을 달성하며, RoBERTa 와 DeBERTa 는 동일한 프레임워크 내에서 F1 점수를 더욱 향상시킵니다. 우리는 의존성 기반 진단 방법을 채택하여 스페인 레벨의 불일치를 특징화하고, 의존성 기반 구조적 신호 하에서 LLM 의 행동에 대한 표현 수준의 분석을 수행합니다. 결과는 의존성 단서가 주로 구조적 안정성을 개선한다는 것을 나타냅니다. 마지막으로, 이 프레임워크의 명시적인 술어-명사 구조가 다운스트림 응용 프로그램으로 다국어 SRL 프로젝트를 지원할 수 있음을 보여줍니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0