llama.cpp v0.0.252 (b9012) 릴리스
요약
llama.cpp의 v0.0.252 버전이 릴리스되었습니다. 이번 업데이트는 Mistral 포맷에 apply_scale 지원을 추가하는 등 다양한 기능 개선과 버그 수정을 포함합니다. 특히, macOS, Linux, Android, Windows, openEuler 등 광범위한 플랫폼에서 CPU, GPU(CUDA, Vulkan, ROCm, OpenVINO 등), 그리고 아키텍처별 최적화된 빌드를 제공하여 사용자 접근성과 성능을 크게 향상시켰습니다.
핵심 포인트
- Mistral 포맷에 apply_scale 지원이 추가되어 호환성이 개선되었습니다.
- macOS (Apple Silicon 및 Intel), Linux, Windows, Android 등 거의 모든 주요 운영체제와 아키텍처를 지원합니다.
- 다양한 백엔드 가속기(CUDA 12/13, Vulkan, ROCm, OpenVINO, SYCL, HIP)를 통해 최적화된 성능을 제공합니다.
- openEuler 환경에 대한 네이티브 빌드를 추가하여 특정 엔터프라이즈 Linux 배포판 지원 범위를 넓혔습니다.
변환: Mistral 포맷 Yarn apply_scale 지원 (#22612) [버그 수정] Mistral 포맷 apply_scale 지원 추가. convert_hf_to_gguf.py 업데이트.
Co-authored-by: Sigbjørn Skjæret (sigbjorn.skjaeret@scala.com). 잘못된 이해된 보울(true/false) 매개변수 수정.
Co-authored-by: Sigbjørn Skjæret (sigbjorn.skjaeret@scala.com).
macOS/iOS:
- macOS Apple Silicon (arm64)
- macOS Apple Silicon (arm64, KleidiAI 활성화됨)
- macOS Intel (x64)
- iOS XCFramework
Linux:
- Ubuntu x64 (CPU)
- Ubuntu arm64 (CPU)
- Ubuntu s390x (CPU)
- Ubuntu x64 (Vulkan)
- Ubuntu arm64 (Vulkan)
- Ubuntu x64 (ROCm 7.2)
- Ubuntu x64 (OpenVINO)
- Ubuntu x64 (SYCL FP32)
- Ubuntu x64 (SYCL FP16)
Android:
- Android arm64 (CPU)
Windows:
- Windows x64 (CPU)
- Windows arm64 (CPU)
- Windows x64 (CUDA 12) - CUDA 12.4 DLLs
- Windows x64 (CUDA 13) - CUDA 13.1 DLLs
- Windows x64 (Vulkan)
- Windows x64 (SYCL)
- Windows x64 (HIP)
openEuler:
- openEuler x86 (310p)
- openEuler x86 (910b, ACL Graph)
- openEuler aarch64 (310p)
- openEuler aarch64 (910b, ACL Graph)
AI 자동 생성 콘텐츠
본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기