본문으로 건너뛰기

© 2026 Molayo

arXiv논문2026. 04. 30. 22:19

비안궈: 온라인 시스템 운영을 위한 유연한 기술 배치 아전트 프레임워크

요약

본 기술 기사는 대규모 온라인 시스템의 운영 및 유지보수(O&M) 과정에서 발생하는 복잡한 문제 해결을 위한 'Bian Que'라는 아전트 프레임워크를 소개합니다. 기존 방식은 방대한 데이터와 지식 속에서 필요한 정보를 선별하고 연결하는 오케스트레이션 단계에 병목 현상이 있었습니다. Bian Que는 운영 작업을 세 가지 정형 패턴으로 통합하고, 각 스킬이 필요한 데이터와 지식을 자동으로 검색/정제하며, 하나의 수정 신호가 지식 증류 및 스킬 정제를 통해 자체적으로 진화하는 메커니즘을 제공하여 O&M 효율성을 혁신합니다.

핵심 포인트

  • Bian Que는 대규모 온라인 시스템의 운영 및 유지보수(O&M)를 위한 아전트 프레임워크입니다.
  • 핵심 문제는 추론 능력 자체가 아니라, 방대한 데이터와 지식 속에서 필요한 정보를 선별하고 연결하는 '오케스트레이션'에 있습니다.
  • 프레임워크는 O&M을 릴리스 인터셉션, 선제적 점검, 경보 근본 원인 분석의 세 가지 정형 패턴으로 통합했습니다.
  • 각 스킬은 특정 비즈니스 모듈 컨텍스트에 맞는 데이터와 지식을 지정하여 LLM의 환각 및 희석 문제를 해결합니다.
  • 실제 배포 사례에서 경보량 75% 감소, 근본 원인 분석 정확도 80% 달성 등 높은 성능을 입증했습니다.

대규모 온라인 엔진 시스템(검색, 추천, 광고 등)의 운영 및 유지보수 (O&M) 는 릴리스 모니터링, 경보 응답, 근본 원인 분석을 위해 상당한 인력 노력이 필요합니다. LLM 기반 아전트는 이러한 작업에 자연스럽게 적합하지만, 배포의 병목 현상은 추론 능력이 아니라 오케스트레이션입니다. 즉, 각 운영 이벤트마다 관련 데이터(메트릭, 로그, 변경 이벤트) 와 적용 가능한 운영 지식 (핸드북 규칙 및 실무자 경험) 을 선택하는 과정이 핵심입니다. 모든 신호를 무분별하게 입력하면 희석과 환각이 발생하며, 수십 개의 일일 릴리스 하에서 이벤트-(데이터, 지식) 매핑을 수동으로 큐레이션하는 것은 불가능에 가깝습니다. 우리는 Bian Que 를 소개합니다. 이 아전트 프레임워크는 세 가지 기여를 제공합니다: (i) 일상적인 O&M 을 세 가지 정형 패턴(릴리스 인터셉션, 선제적 점검, 경보 근본 원인 분석) 으로 추상화하는 extbf{통합 운영 패러다임}, (ii) 각 Skill 이 특정 비즈니스 모듈 컨텍스트에 대해 검색해야 할 데이터와 지식을 지정하며, LLM 에 의해 자동으로 생성 및 업데이트되거나, 온콜 엔지니어의 자연어 지시를 통해 반복적으로 정제될 수 있는 extbf{유연한 기술 배치}, (iii) 하나의 수정 신호가 사례 메모리에서 지식으로의 증류(distillation) 와 표적화된 Skill 정제라는 두 개의 병렬 경로를 구동하는 extbf{통합 자체 진화 메커니즘}입니다. 중국 주요 단비디오 플랫폼인 카이슈우(KuaiShou) 의 전자상거래 검색 엔진에 배포된 Bian Que 는 경보량을 75% 감소시키고, 근본 원인 분석 정확도를 80% 달성하며, 평균 해결 시간을 50% 이상 단축했습니다. 우리의 프레임워크는 오프라인 평가에서 99.0% 의 통과율을 달성했습니다. 코드는 https://github.com/benchen4395/BianQue_Assistant 에서 이용 가능합니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
5

댓글

0