본문으로 건너뛰기

© 2026 Molayo

X요약2026. 05. 15. 16:33

오늘 저희의 첫 번째 시각-언어 모델 (Vision-Language Model)인 ZAYA1-VL-8B를 출시합니다.

요약

새로운 시각-언어 모델(Vision-Language Model, VLM)인 ZAYA1-VL-8B가 출시되었습니다. 이 모델은 AMD에서 학습된 ZAYA1-8B 베이스를 기반으로 구축되었으며, 700M active / 8B total MoE 구조를 채택했습니다. 이를 통해 모델 크기 대비 높은 성능과 뛰어난 지능 밀도 및 추론 효율성을 구현했다고 설명합니다.

핵심 포인트

  • ZAYA1-VL-8B는 최초의 시각-언어 모델(VLM)입니다.
  • AMD에서 학습된 ZAYA1-8B 베이스를 기반으로 구축되었습니다.
  • 700M active / 8B total MoE 구조를 채택하여 효율성을 높였습니다.
  • 모델 크기 대비 강력한 성능과 높은 지능 밀도, 추론 효율성을 달성했습니다.

오늘 저희의 첫 번째 시각-언어 모델 (Vision-Language Model)인 ZAYA1-VL-8B를 출시합니다.

ZAYA1-VL-8B는 @AMD에서 학습된 저희의 ZAYA1-8B 베이스를 기반으로 구축된 700M active / 8B total MoE (Mixture-of-Experts) 모델입니다. 저희는 모델 크기 대비 강력한 성능을 달성하여 선도적인 지능 밀도 (Intelligence Density)와 추론 효율성 (Inference Efficiency)을 구현했습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 X @zyphraai (자동 발견)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
0

댓글

0