본문으로 건너뛰기

© 2026 Molayo

llama.cpp헤드라인2026. 05. 04. 18:10

llama.cpp v0.0.252 (b9012) 릴리스

요약

llama.cpp의 v0.0.252 버전이 릴리스되었습니다. 이번 업데이트는 Mistral 포맷에 apply_scale 지원을 추가하는 등 다양한 기능 개선과 버그 수정을 포함합니다. 특히, macOS, Linux, Android, Windows, openEuler 등 광범위한 플랫폼에서 CPU, GPU(CUDA, Vulkan, ROCm, OpenVINO 등), 그리고 아키텍처별 최적화된 빌드를 제공하여 사용자 접근성과 성능을 크게 향상시켰습니다.

핵심 포인트

  • Mistral 포맷에 apply_scale 지원이 추가되어 호환성이 개선되었습니다.
  • macOS (Apple Silicon 및 Intel), Linux, Windows, Android 등 거의 모든 주요 운영체제와 아키텍처를 지원합니다.
  • 다양한 백엔드 가속기(CUDA 12/13, Vulkan, ROCm, OpenVINO, SYCL, HIP)를 통해 최적화된 성능을 제공합니다.
  • openEuler 환경에 대한 네이티브 빌드를 추가하여 특정 엔터프라이즈 Linux 배포판 지원 범위를 넓혔습니다.

변환: Mistral 포맷 Yarn apply_scale 지원 (#22612) [버그 수정] Mistral 포맷 apply_scale 지원 추가. convert_hf_to_gguf.py 업데이트.

Co-authored-by: Sigbjørn Skjæret (sigbjorn.skjaeret@scala.com). 잘못된 이해된 보울(true/false) 매개변수 수정.

Co-authored-by: Sigbjørn Skjæret (sigbjorn.skjaeret@scala.com).

macOS/iOS:

  • macOS Apple Silicon (arm64)
  • macOS Apple Silicon (arm64, KleidiAI 활성화됨)
  • macOS Intel (x64)
  • iOS XCFramework

Linux:

  • Ubuntu x64 (CPU)
  • Ubuntu arm64 (CPU)
  • Ubuntu s390x (CPU)
  • Ubuntu x64 (Vulkan)
  • Ubuntu arm64 (Vulkan)
  • Ubuntu x64 (ROCm 7.2)
  • Ubuntu x64 (OpenVINO)
  • Ubuntu x64 (SYCL FP32)
  • Ubuntu x64 (SYCL FP16)

Android:

  • Android arm64 (CPU)

Windows:

  • Windows x64 (CPU)
  • Windows arm64 (CPU)
  • Windows x64 (CUDA 12) - CUDA 12.4 DLLs
  • Windows x64 (CUDA 13) - CUDA 13.1 DLLs
  • Windows x64 (Vulkan)
  • Windows x64 (SYCL)
  • Windows x64 (HIP)

openEuler:

  • openEuler x86 (310p)
  • openEuler x86 (910b, ACL Graph)
  • openEuler aarch64 (310p)
  • openEuler aarch64 (910b, ACL Graph)

AI 자동 생성 콘텐츠

본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0