본문으로 건너뛰기

© 2026 Molayo

X요약2026. 05. 01. 22:53

효율미쳤다.

요약

알리바바가 오픈 소스로 공개한 Qwen3.6-35B-A3B는 효율성이 극대화된 멀티모달 에이전트 코딩 모델입니다. 총 350억 개의 파라미터를 가지지만, MoE(Mixture of Experts) 구조를 통해 활성 파라미터는 30억 개만 사용합니다. 이 모델은 최대 101만 토큰의 긴 컨텍스트 처리 능력과 강력한 멀티모달 추론 능력을 갖추고 있어 에이전트 코딩 작업에서 높은 성능을 보여줍니다.

핵심 포인트

  • Qwen3.6-35B-A3B는 알리바바가 공개한 오픈 소스(Apache 2.0) 멀티모달 에이전트 모델입니다.
  • MoE 구조를 채택하여 총 350억 개의 파라미터를 가지지만, 실제 활성 파라미터는 30억 개로 효율성을 높였습니다.
  • 최대 101만 토큰의 긴 컨텍스트 처리가 가능하며, 강력한 멀티모달 인식 및 추론 능력을 제공합니다.
  • 에이전트 코딩 작업에서 높은 성능을 발휘하도록 설계되었습니다.

효율미쳤다.
Qwen3.6-35B-A3B — 알리바바의 오픈 멀티모달 에이전트 코딩 모델
━━━━━━━━━━━━━━━

I. 핵심 스펙

  • 총 파라미터: 350억 / 활성 파라미터: 30억 (MoE)
  • 전문가 256개 중 8개 라우팅 + 1개 공유 활성
  • 컨텍스트: 262K 네이티브, YaRN으로 최대 101만 토큰
  • 멀티모달:

Meet Qwen3.6-35B-A3B:Now Open-Source! A sparse MoE model, 35B total params, 3B active. Apache 2.0 license. Agentic coding on par with models 10x its active size Strong multimodal perception and reasoning ability Multimodal thinking + non-thinking modes

AI 자동 생성 콘텐츠

본 콘텐츠는 X 새 AI 모델의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
8

댓글

0