본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 05. 14. 14:34

멀티 도메인 동적 그래프 파운데이션 모델을 위한 분리 및 발산 조건부 프롬프트

요약

본 연구는 서로 다른 도메인의 동적 그래프를 통합적으로 모델링하는 데 어려움을 겪는 기존의 멀티 도메인 동적 그래프 파운데이션 모델(GFM)의 한계를 극복하기 위해 DyGFM을 제안합니다. DyGFM은 의미-시간 분리 이중 분기 사전 학습 전략과 발산 인지 전문가 선택 기반의 교차 도메인 라우팅 메커니즘을 도입하여, 전이 가능한 의미론을 도메인 특화 동역학으로부터 효과적으로 분리합니다. 이를 통해 노드 분류 및 링크 예측 등 다양한 다운스트림 작업에서 기존 최첨단 모델들을 능가하는 성능과 효율성을 입증했습니다.

핵심 포인트

  • 멀티 도메인 동적 그래프 파운데이션 모델(GFM) 구축은 의미론적/시간적 패턴 불일치로 인해 어려움이 존재함.
  • 제안된 DyGFM은 '의미-시간 분리'를 갖춘 이중 분기 사전 학습 전략을 사용하여 전이 가능한 의미론과 도메인 특화 동역학을 분리함.
  • 부정적 지식 전이를 완화하기 위해 발산 인지 전문가 선택 기반의 교차 도메인 라우팅 메커니즘을 개발함.
  • 다운스트림 미세 조정을 위한 경량 학습 가능한 그래프 프롬프트 생성기(발산 조건부 프롬프트 생성기)를 설계하여 효율성을 높임.
  • DyGFM은 노드 분류 및 링크 예측 등 연속적 동적 그래프 벤치마크에서 기존 최첨단 모델들을 일관되게 능가하는 성능을 보임.

동적 그래프(Dynamic graphs)는 실제 시스템에서 어디에나 존재하며, 일반화 가능한 동적 그래프 파운데이션 모델(Dynamic Graph Foundation Models)을 구축하는 것은 그래프 학습(graph learning)의 최전선이 되었습니다. 그러나 서로 다른 도메인의 동적 그래프는 그 의미적(semantic) 및 시간적(temporal) 패턴이 본질적으로 일치하지 않기 때문에 통합 모델링에 근본적인 과제를 제기하며, 이는 멀티 도메인 사전 학습(multi-domain pre-training)을 어렵게 만듭니다. 결과적으로, 널리 사용되는 "사전 학습 후 미세 조정(pretrain-then-finetune)" 패러다임은 종종 심각한 부정적 지식 전이(negative knowledge transfer) 문제를 겪습니다. 저희가 알고 있는 바로는, 현재 멀티 도메인 동적 GFM은 존재하지 않습니다. 본 연구에서는 분리 및 발산 조건부 프롬프팅(decoupled and divergence-conditioned prompting)을 기반으로 한 멀티 도메인 대상 동적 그래프 파운데이션 모델인 DyGFM을 제안합니다. 전이 가능한 의미론(transferable semantics)을 도메인 특화 동역학(domain-specific dynamics)으로부터 분리하기 위해, 저희는 의미-시간 분리(semantic-temporal decoupling)를 갖춘 이중 분기 사전 학습(dual-branch pre-training) 전략을 도입합니다. 도메인 적응(domain adaptation) 과정에서의 부정적 전이를 완화하기 위해, 저희는 발산 인지 전문가 선택(divergence-aware expert selection)을 포함하는 교차 도메인 라우팅 메커니즘(cross-domain routing mechanism)을 추가로 개발했습니다. 효율적인 다운스트림 미세 조정(downstream fine-tuning)을 가능하게 하기 위해, 의미적 및 시간적 특성에 맞춤화된 경량의 학습 가능한 그래프 프롬프트(graph prompts)를 주입하는 발산 조건부 프롬프트 생성기(divergence-conditioned prompt generator)를 설계했습니다. 연속적 동적 그래프 벤치마크에 대한 광범위한 실험을 통해, DyGFM이 노드 분류(node classification) 및 링크 예측(link prediction) 작업 모두에서 12개의 최첨단(state-of-the-art) 베이스라인 모델을 일관되게 능가하며, 우수한 효과성과 효율성을 달성함을 입증했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0