에이전트 성능 향상을 위한 보충 자료 생성 훈련 (SGT)
요약
거대 언어 모델(LLM)을 에이전트 작업에 맞게 미세 조정하는 것은 높은 컴퓨팅 비용과 긴 반복 주기 때문에 비효율적입니다. 본 논문은 이러한 문제를 해결하기 위해 '보충 자료 생성 훈련 (Supplement Generation Training, SGT)'이라는 효율적인 방법을 제안합니다. SGT는 작은 LLM을 사용하여 원래 입력에 추가할 유용한 보충 텍스트를 생성하도록 훈련합니다. 이 보충 자료가 큰 모델의 성능을 향상시키며, 근본적인 대형 모델 자체를 수정하지 않고도 작업 요구사항에 맞춰 동적으로 적응할 수 있습니다. 이 접근
핵심 포인트
- SGT는 거대 LLM을 직접 미세 조정하는 대신, 작은 보조 모델로 효율성을 높입니다.
- 작은 모델이 생성한 보충 텍스트가 큰 LLM의 작업 수행 능력을 향상시킵니다.
- 이 방법은 대형 모델과 작업별 최적화를 분리하여 비용 효율적인 배포를 가능하게 합니다.
거대 언어 모델(LLM)을 에이전트 작업에 맞게 훈련하는 것은 높은 컴퓨팅 자원 소모와 긴 반복 주기 때문에 현실적으로 어려워지고 있습니다. 저희는 이러한 문제를 해결하기 위해 '보충 자료 생성 훈련 (Supplement Generation Training, SGT)'이라는 보다 효율적이고 지속 가능한 전략을 제안합니다.
SGT의 핵심은 작은 LLM을 활용하여 원래 입력에 추가할 유용한 보충 텍스트를 생성하는 것입니다. 이 보충 자료가 큰 모델이 작업을 더 효과적으로 해결하도록 돕습니다. 이 가벼운(lightweight) 모델들은 근본적인 대형 모델 자체를 수정하지 않으면서도 작업 요구사항에 맞춰 동적으로 보충 자료를 조정할 수 있습니다.
결과적으로, SGT는 작업별 최적화 과정을 거대 기반 모델로부터 분리하여, LLM 기반 에이전트의 실제 환경 적용을 더욱 유연하고 비용 효율적으로 만듭니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 arXiv cs.AI의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기