본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 04. 30. 15:34

SG-UniBuc-NLP 의 SemEval-2026 Task 6: Long-Context Evasion Detection 를 위한

요약

본 기사는 SemEval-2026 Task 6인 'CLARITY: Unmasking Political Question Evasions'에 제출한 시스템을 소개합니다. 이 시스템은 영어 정치 인터뷰 응답을 명확성(3가지 수준)과 세부적인 회피 전략(9가지 유형)으로 분류하는 것을 목표로 합니다. 기술적으로는, 긴 텍스트 처리를 위해 오버래핑 슬라이딩-윈도우 청킹 및 요소별 최대 풀링 집계 방식을 사용하며, 공유된 RoBERTa-large 인코더와 다중 작업 학습(Multi-task objective)을 통해 두 개의 특화 헤드를 구현했습니다.

핵심 포인트

  • SemEval-2026 Task 6은 정치적 질문 회피(Political Question Evasion)를 탐지하는 것을 목표로 합니다.
  • 시스템은 응답의 명확성(3-way)과 세밀한 회피 전략(9-way)을 동시에 분류합니다.
  • 긴 컨텍스트 처리를 위해 오버래핑 슬라이딩-윈도우 청킹 및 Element-wise Max-Pooling 집계 방식을 채택했습니다.
  • 공유된 RoBERTa-large 인코더와 다중 작업 학습(Multi-task objective)을 사용하여 효율성을 높였습니다.
  • 최종 성능은 7-fold stratified cross-validation 기반의 Ensembling을 통해 측정되었습니다.

우리는 CLARITY: Unmasking Political Question Evasions(명확성 해부: 정치적 질문 회피 해독)이라는 SemEval-2026 Task 6에 제출한 시스템을 소개합니다. 이 시스템은 영어 정치 인터뷰 응답을 대략적인 명확성 (3-way) 과 세밀한 회피 전략 (9-way) 으로 분류합니다. 응답이 표준 Transformer 인코더의 512 토큰 한도를 자주 초과하기 때문에, Chunk representation 위에 Element-wise Max-Pooling aggregation 을 적용하는 Overlapping sliding-window chunking 전략을 사용합니다. 공유된 RoBERTa-large 인코더는 두 개의 작업 특화 헤드를 공급하며, Multi-task objective 를 통해 공동으로 학습됩니다. 추론 시에는 7-fold stratified cross-validation 에 대한 Ensembling 을 수행합니다. 본 시스템은 Subtask 1 에서 Macro-F1 0.80, Subtask 2 에서 Macro-F1 0.51 의 성적을 거두어 두 작업 모두에서 11 위를 차지했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
5

댓글

0