본문으로 건너뛰기

© 2026 Molayo

X요약2026. 05. 01. 22:53

알리바바가 또 사고를 쳤습니다. 성능은 올리고 비용은 확 낮춘 '역대급 가성비' 모델의 등장입니다. 전체 350억 개 매개변수 중 딱 30억

요약

알리바바가 MoE(희소 전문가 혼합) 구조를 활용하여 전체 350억 개 매개변수 중 단 30억 개만 사용하여 높은 성능을 구현한 '큐원 3.6-35B-A3B' 모델을 출시했습니다. 이 모델은 적은 연산 자원으로도 코딩 및 시각 지능 분야에서 구글의 Gemma 등 경쟁 모델과 대등하거나 그 이상의 성능을 보여주며, 특히 에이전틱 코딩 능력과 멀티모달 기능이 강화되었습니다. 완전 오픈소스이며 기존 API 규격과의 호환성이 높아 개발 환경에 쉽게 통합할 수 있다는 것이 큰 장점입니다.

핵심 포인트

  • MoE(희소 전문가 혼합) 구조를 통해 연산 효율을 극대화하여, 350억 개 매개변수 중 일부만 사용하여 높은 성능을 달성했습니다.
  • 코딩 에이전트로서 자율적인 문제 해결과 다단계 추론 능력을 갖추었으며, 'preserve_thinking' 기능으로 맥락 유지에 강점을 보입니다.
  • 시각 지능(멀티모달) 분석 능력이 크게 강화되어 공간 인식 및 텍스트-이미지 통합 작업에서 높은 정밀도를 보여줍니다.
  • 완전 오픈소스이며 오픈AI, 앤트로픽 등 주요 API 규격과 호환성이 높아 즉시 개발 환경에 적용하기 용이합니다.

알리바바가 또 사고를 쳤습니다. 성능은 올리고 비용은 확 낮춘 '역대급 가성비' 모델의 등장입니다.
전체 350억 개 매개변수 중 딱 30억 개만 써서 코딩과 시각 지능을 정복한 '큐원(Qwen) 3.6-35B-A3B'
"가성비 끝판왕" 알리바바 큐원 3.6 출시
30억 개로 350억 개의 퍼포먼스를

MoE(희소 전문가 혼합) 구조: 전체 매개변수의 일부만 사용하여 연산 자원 효율 극대화
성능 반전: 적은 자원으로도 구글 '젬마(Gemma) 31B'와 대등하거나 그 이상의 성능
코딩 에이전트의 새로운 기준

에이전틱 코딩: 단순 코드 생성을 넘어 자율적인 문제 해결과 다단계 추론 가능
맥락 유지: ‘preserve_thinking’ 기능으로 긴 작업에서도 일관된 추론 흐름 유지
호환성: 오픈AI, 앤트로픽 API 규격과 호환되어 기존 환경에 즉시 통합 가능
눈까지 달린 만능 모델 (멀티모달)

시각 지능: 공간 인식 및 텍스트-이미지 통합 분석 능력 대폭 강화
벤치마크: 일부 시각 작업에서 '클로드 소네트' 수준을 상회하는 정밀도 기록
완전 오픈소스의 파격

허깅페이스 등에서 누구나 다운로드 가능 (셀프 호스팅 지원)
비용 때문에 고성능 AI 도입 망설였다면? 이제 이 모델이 답이 될 것 같습니다.
'저장'해두고 개발 환경에 적용해 보세요!

AI 자동 생성 콘텐츠

본 콘텐츠는 X 새 AI 모델의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
6

댓글

0