오늘 AMD 에서의 사전 학습 확장에서 중요한 이정표인 ZAYA1-74B-Preview 를 출시합니다.
요약
AMD가 사전 학습 확장의 중요한 이정표인 ZAYA1-74B-Preview를 공개했습니다. 이 미리보기 모델은 4B 활성 파라미터와 총 74B MoE(Mixture of Experts) 구조를 가지고 있습니다. 현재는 강력한 전 RL 기반 체크포인트 형태로 제공되며, 최종적으로 포스트 훈련된 추론 모델이 곧 출시될 예정입니다.
핵심 포인트
- AMD가 새로운 대규모 언어 모델(LLM)인 ZAYA1-74B-Preview를 발표했다.
- 해당 모델은 MoE(Mixture of Experts) 구조를 채택하여 4B 활성 파라미터와 총 74B의 규모를 가집니다.
- 현재는 전 RL 기반 체크포인트 형태로 제공되며, 추론에 최적화된 최종 버전이 곧 출시될 예정이다.
오늘 우리는 AMD(@AMD) 의 사전 학습 확장에서 중요한 이정표인 ZAYA1-74B-Preview 를 출시합니다.
ZAYA1-74B-Preview 는 4B 활성 / 74B 총 MoE 입니다.
이 미리보기 모델은 강력한 전 RL 기반 체크포인트입니다. 최종 포스트 훈련된 추론 모델은 곧 출시됩니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 X @_lewtun (자동 발견)의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기