오늘 저희의 첫 번째 시각-언어 모델 (Vision-Language Model)인 ZAYA1-VL-8B를 출시합니다.
요약
새로운 시각-언어 모델(Vision-Language Model, VLM)인 ZAYA1-VL-8B가 출시되었습니다. 이 모델은 AMD에서 학습된 ZAYA1-8B 베이스를 기반으로 구축되었으며, 700M active / 8B total MoE 구조를 채택했습니다. 이를 통해 모델 크기 대비 높은 성능과 뛰어난 지능 밀도 및 추론 효율성을 구현했다고 설명합니다.
핵심 포인트
- ZAYA1-VL-8B는 최초의 시각-언어 모델(VLM)입니다.
- AMD에서 학습된 ZAYA1-8B 베이스를 기반으로 구축되었습니다.
- 700M active / 8B total MoE 구조를 채택하여 효율성을 높였습니다.
- 모델 크기 대비 강력한 성능과 높은 지능 밀도, 추론 효율성을 달성했습니다.
오늘 저희의 첫 번째 시각-언어 모델 (Vision-Language Model)인 ZAYA1-VL-8B를 출시합니다.
ZAYA1-VL-8B는 @AMD에서 학습된 저희의 ZAYA1-8B 베이스를 기반으로 구축된 700M active / 8B total MoE (Mixture-of-Experts) 모델입니다. 저희는 모델 크기 대비 강력한 성능을 달성하여 선도적인 지능 밀도 (Intelligence Density)와 추론 효율성 (Inference Efficiency)을 구현했습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 X @zyphraai (자동 발견)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기