GRAIL: SLM 기반 인덱싱을 통한 실시간 에이전트 발견을 위한 심층 정밀도 하이브리드 공명 프레임워크
요약
본 기술 기사는 대규모 에이전트 생태계에서 발생하는 '효율적이고 정확한 에이전트 발견' 문제를 해결하기 위해 GRAIL(Granular Resonance-based Agent/AI Link)이라는 하이브리드 공명 프레임워크를 제안합니다. 기존 방식의 높은 지연 시간이나 낮은 의미론적 정밀도라는 딜레마를 극복하고자, GRAIL은 SLM 기반 예측, 합성 쿼리를 통한 문서 확장, 그리고 최대 유사성 계산을 포함하는 세 가지 혁신적인 요소를 결합했습니다. 이 프레임워크는 대규모 에이전트 데이터셋에서 기존 LLM 파싱 방식 대비 발견 지연 시간을 획기적으로 줄이고 검색 정확도를 높이는 성능을 입증했습니다.
핵심 포인트
- GRAIL은 SLM(Small Language Model) 기반 예측을 사용하여 전통적인 LLM 의존성으로 인한 높은 지연 시간 문제를 해결합니다.
- Pseudo-Document Expansion 기법을 통해 에이전트 설명의 의미론적 밀도를 높여 검색 성능을 강화했습니다.
- MaxSim Resonance 메커니즘은 사용자 쿼리와 에이전트 예시 간의 정밀한 최대 유사성을 계산하여 의미론적 희석을 완화합니다.
- GRAIL 프레임워크는 대규모 데이터셋에서 기존 LLM 파싱 대비 발견 지연 시간을 79배 이상 줄이는 뛰어난 효율성을 보여주었습니다.
대형 언어 모델 (LLM) 기반 에이전트 생태계가 급격히 확장함에 따라, 효율적이고 정확한 에이전트 발견은 대규모 다중 에이전트 협업의 핵심 병목 현상이 되었습니다. 기존 접근 방식은 일반적으로 다음과 같은 딜레마에 직면해 있습니다: 중량형 LLM 을 의도 분석 (intent parsing) 에 의존하여 prohibitive latency (보통 30 초 이상) 를 유발하거나, 속도 향상을 위해 의미론적 정밀도를 희생하는 단일 벡터 검색을 사용하는 것입니다. 이러한 격차를 해소하기 위해 우리는 extbf{GRAIL} (Granular Resonance-based Agent/AI Link) 을 제안하며, 이는 정확성을 훼손하지 않으면서 400ms 미만 발견 지연 (latency) 을 달성합니다. GRAIL 은 세 가지 핵심 혁신을 도입했습니다: (1) extbf{SLM-Enhanced Prediction}, 일반화된 LLM 파서 대신 밀리초 수준의 능력 태그 예측을 위한 전용 미세 조정된 소형 언어 모델 (SLM) 을 대체; (2) extbf{Pseudo-Document Expansion}, 에이전트 설명에 합성 쿼리를 추가하여 의미론적 밀도를 향상시키고 강력한 밀도 검색 (dense retrieval) 을 가능하게 함; 그리고 (3) extbf{MaxSim Resonance}, 사용자 쿼리와 이산 에이전트 사용 예시 간의 최대 유사성을 계산하는 정밀한 매칭 메커니즘으로, 의미론적 희석 (semantic dilution) 을 효과적으로 완화합니다. extbf{AgentTaxo-9K}라는 새로운 대규모 데이터셋 (9,240 개 에이전트) 에서 검증된 결과, GRAIL 은 LLM 파싱 기준선과 비교하여 엔드 투 엔드 발견 지연을 extbf{79$ imes$} 이상 줄였으며, 전통적인 벡터 검색에 비해 Recall@10 에서 유의미하게 우수합니다. 이 프레임워크는 실시간
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.CL의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기