본문으로 건너뛰기

© 2026 Molayo

Deep Tech요약2026. 04. 28. 01:54

알리바바에서 새로운 논문. 30억 개의 활성 파라미터를 가진 30억 규모의 MoE가, 실제 도구 사용 작업에서 Qwen3-235B와 맞먹는다. AgenticQwen-30B-A3B: TAU-2 + BFCL-V4 다중 턴 테스트에서 평균 50.2. …

요약

알리바바가 발표한 논문에 따르면, 30억 개의 활성 파라미터를 가진 30억 규모의 MoE 모델인 AgenticQwen-30B-A3B가 실제 도구 사용(tool usage) 작업에서 Qwen3-235B와 유사한 성능을 보여주었습니다. 이 모델은 TAU-2 + BFCL-V4 다중 턴 테스트에서 평균 50.2점을 기록했으며, 기존의 AgenticQwen-8B보다도 높은 성능을 입증했습니다.

핵심 포인트

  • 30억 개의 활성 파라미터를 가진 MoE 모델(AgenticQwen-30B-A3B)이 대규모 모델과 경쟁할 수 있는 성능을 보여주었습니다.
  • 해당 모델은 실제 도구 사용 및 다중 턴 테스트 환경에서 높은 성능(평균 50.2점)을 기록했습니다.
  • MoE 구조를 통해 파라미터 효율성을 높이면서도 대규모 모델에 필적하는 추론 능력을 확보했음을 시사합니다.

알리바바에서 새로운 논문.

30억 개의 활성 파라미터를 가진 30억 규모의 MoE가, 실제 도구 사용 작업에서 Qwen3-235B와 맞먹는다.

AgenticQwen-30B-A3B: TAU-2 + BFCL-V4 다중 턴 테스트에서 평균 50.2.

AgenticQwen-8B: 47.4.

둘 다 표준 Qwen 기본값의 두 배 이상의 성능을 보이며, 235B

AI 자동 생성 콘텐츠

본 콘텐츠는 X @DeepTechTR (AI/오픈소스)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0