효율미쳤다.
요약
알리바바가 오픈 소스로 공개한 Qwen3.6-35B-A3B는 효율성이 극대화된 멀티모달 에이전트 코딩 모델입니다. 총 350억 개의 파라미터를 가지지만, MoE(Mixture of Experts) 구조를 통해 활성 파라미터는 30억 개만 사용합니다. 이 모델은 최대 101만 토큰의 긴 컨텍스트 처리 능력과 강력한 멀티모달 추론 능력을 갖추고 있어 에이전트 코딩 작업에서 높은 성능을 보여줍니다.
핵심 포인트
- Qwen3.6-35B-A3B는 알리바바가 공개한 오픈 소스(Apache 2.0) 멀티모달 에이전트 모델입니다.
- MoE 구조를 채택하여 총 350억 개의 파라미터를 가지지만, 실제 활성 파라미터는 30억 개로 효율성을 높였습니다.
- 최대 101만 토큰의 긴 컨텍스트 처리가 가능하며, 강력한 멀티모달 인식 및 추론 능력을 제공합니다.
- 에이전트 코딩 작업에서 높은 성능을 발휘하도록 설계되었습니다.
효율미쳤다.
Qwen3.6-35B-A3B — 알리바바의 오픈 멀티모달 에이전트 코딩 모델
━━━━━━━━━━━━━━━
I. 핵심 스펙
- 총 파라미터: 350억 / 활성 파라미터: 30억 (MoE)
- 전문가 256개 중 8개 라우팅 + 1개 공유 활성
- 컨텍스트: 262K 네이티브, YaRN으로 최대 101만 토큰
- 멀티모달:
Meet Qwen3.6-35B-A3B:Now Open-Source! A sparse MoE model, 35B total params, 3B active. Apache 2.0 license. Agentic coding on par with models 10x its active size Strong multimodal perception and reasoning ability Multimodal thinking + non-thinking modes
AI 자동 생성 콘텐츠
본 콘텐츠는 X 새 AI 모델의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기