다중 에이전트 시스템의 잠재적 통신 최적화 프레임워크 DiffMAS
요약
대규모 언어 모델(LLM) 기반 다중 에이전트 시스템은 복잡한 추론 작업에서 강력하지만, 기존 연구는 상호작용을 고정된 인터페이스로 취급합니다. 본 논문은 이러한 한계를 극복하기 위해 'DiffMAS'라는 새로운 훈련 프레임워크를 제안합니다. DiffMAS는 에이전트 간의 통신을 텍스트 기반 프로토콜 대신 잠재적 표현(latent representations)으로 처리하고, 이 통신 과정을 다중 에이전트 추론 과정과 함께 공동 최적화(jointly optimize)하는 것이 핵심입니다. 이를 통해 에이전트는 정보 인코딩 및 해석 방
핵심 포인트
- DiffMAS는 잠재적 통신을 학습 가능한 구성 요소로 간주하여, 다중 에이전트 시스템의 엔드투엔드 최적화를 목표로 합니다.
- 텍스트 기반 프로토콜 대신 내부 표현(예: key-value 캐시)을 활용한 잠재적 통신 방식을 도입했습니다.
- DiffMAS는 수학 추론 (AIME24에서 26.7% 향상), 과학 QA, 코드 생성 등 다양한 벤치마크에서 성능 개선을 입증했습니다.
대규모 언어 모델(LLM) 기반 다중 에이전트 시스템은 복잡한 추론 작업에서 뛰어난 성능을 보여주고 있습니다. 하지만 기존 연구들은 주로 에이전트의 역할 분담이나 오케스트레이션에 초점을 맞추고, 에이전트 간의 통신 자체는 고정된 인터페이스(fixed interface)로 취급하는 경향이 있었습니다.
더 나아가, 텍스트 기반 프로토콜을 벗어나 내부 표현(internal representations), 예를 들어 key-value 캐시를 통한 잠재적 통신(latent communication)이 유망한 대안으로 제시되었지만, 기존 접근 방식들은 이 잠재적 통신과 다중 에이전트 추론 과정을 공동으로 최적화(jointly optimize)하지 못하는 한계가 있었습니다.
이에 본 논문은 이러한 간극을 메우기 위해 DiffMAS라는 새로운 훈련 프레임워크를 제안합니다. DiffMAS의 핵심 아이디어는 에이전트 간의 잠재적 통신 과정을 단순한 인터페이스가 아닌, 다중 에이전트 시스템의 학습 가능한 구성 요소(learnable component)로 취급하는 것입니다.
DiffMAS는 다중 에이전트의 잠재적 궤적(latent trajectories)에 대해 파라미터 효율적인 지도 학습(parameter-efficient supervised training)을 수행합니다. 이를 통해 각 에이전트는 상호작용 과정에서 정보를 어떻게 인코딩하고 해석해야 하는지를 공동으로 학습할 수 있게 됩니다.
실험 결과는 DiffMAS가 기존의 단일 에이전트 추론, 텍스트 기반 다중 에이전트 시스템, 그리고 이전의 잠재적 통신 방법들보다 일관되게 우수한 성능을 보임을 입증했습니다. 특히 수학적 추론(AIME24에서 26.7% 향상), 과학 QA (GPQA-Diamond에서 20.2% 향상) 및 코드 생성과 같은 다양한 영역의 벤치마크에서 뛰어난 개선 효과를 나타냈습니다.
이러한 결과는 에이전트 간 통신을 시스템 최적화 과정에 통합하는 것이 다중 에이전트 LLM의 성능을 한 단계 끌어올릴 수 있음을 시사합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기