ZAYA1-8B: AMD 기반 추론 MoE 모델 공개
요약
AMD가 추론 전용 MoE(Mixture of Experts) 모델인 ZAYA1-8B를 공개했습니다. 이 모델은 지능 밀도 최적화되어, 활성 파라미터가 10억 개 미만임에도 불구하고 수학 및 추론 분야에서 기존의 대형 오픈 가중치 모델들을 능가하는 성능을 보여줍니다. 테스트 시 컴퓨팅(test-time compute)을 적용하면 DeepSeek-V3.2나 GPT-5-High와 유사한 수준에 도달할 수 있습니다.
핵심 포인트
- ZAYA1-8B는 AMD에서 훈련된 추론 전용 MoE 모델입니다.
- 지능 밀도 최적화를 통해 효율성을 극대화했습니다.
- 활성 파라미터가 10억 개 미만임에도 불구하고 강력한 성능을 자랑합니다.
- 테스트 시 컴퓨팅 적용 시 DeepSeek-V3.2 및 GPT-5-High에 근접하는 수준의 추론 능력을 보여줍니다.
오늘 우리는 @AMD 에서 훈련된 추론 전용 MoE (Mixture of Experts) 모델인 ZAYA1-8B 를 출시합니다. 이 모델은 지능 밀도 최적화되었습니다.
활성 파라미터가 <1B 인 경우, 수학 및 추론 분야에서 그 크기보다 훨씬 큰 오픈_WEIGHT 모델을 압도하며, 테스트 타임 컴퓨팅 (test-time compute) 을 적용하면 DeepSeek-V3.2 과 GPT-5-High 에 근접합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 X @_lewtun (자동 발견)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기