본문으로 건너뛰기

© 2026 Molayo

llama.cpp헤드라인2026. 04. 29. 19:22

ggml-cuda: 21896 번 게시물의 재게시: Blackwell 네이티브 NVFP4 지원 (#22196) macOS/iOS: - macOS

요약

이 기술 기사는 ggml-cuda 프로젝트의 다양한 플랫폼 및 아키텍처별 빌드 버전을 안내합니다. macOS(Apple Silicon/Intel), Linux(Ubuntu 기반 CPU, Vulkan, ROCm, OpenVINO 등), Android, Windows, openEuler 등 광범위한 환경을 지원하며, 특히 최신 Blackwell 네이티브 NVFP4 지원과 같은 기술적 업데이트가 포함되어 있습니다. 사용자는 자신의 운영체제와 하드웨어에 맞는 특정 빌드를 선택하여 사용할 수 있습니다.

핵심 포인트

  • ggml-cuda는 macOS, Linux, Windows, Android 등 매우 광범위한 플랫폼을 지원합니다.
  • 다양한 백엔드 가속기 옵션을 제공하며 (CUDA 12/13, Vulkan, ROCm, OpenVINO, SYCL, HIP), 사용 환경에 최적화된 빌드를 선택할 수 있습니다.
  • 최신 기술 트렌드를 반영하여 Blackwell 네이티브 NVFP4 지원과 같은 고급 기능을 포함하고 있습니다.
  • Apple Silicon (arm64) 및 다양한 CPU 아키텍처(x86, aarch64 등)를 포괄적으로 커버합니다.

ggml-cuda: 21896 번 게시물의 재게시: Blackwell 네이티브 NVFP4 지원 (#22196)
macOS/iOS:

  • macOS Apple Silicon (arm64)
  • macOS Apple Silicon (arm64, KleidiAI 활성화됨)
  • macOS Intel (x64)
  • iOS XCFramework
    Linux:
  • Ubuntu x64 (CPU)
  • Ubuntu arm64 (CPU)
  • Ubuntu s390x (CPU)
  • Ubuntu x64 (Vulkan)
  • Ubuntu arm64 (Vulkan)
  • Ubuntu x64 (ROCm 7.2)
  • Ubuntu x64 (OpenVINO)
  • Ubuntu x64 (SYCL FP32)
  • Ubuntu x64 (SYCL FP16)
    Android:
  • Android arm64 (CPU)
    Windows:
  • Windows x64 (CPU)
  • Windows arm64 (CPU)
  • Windows x64 (CUDA 12) - CUDA 12.4 DLLs
  • Windows x64 (CUDA 13) - CUDA 13.1 DLLs
  • Windows x64 (Vulkan)
  • Windows x64 (SYCL)
  • Windows x64 (HIP)
    openEuler:
  • openEuler x86 (310p)
  • openEuler x86 (910b, ACL Graph)
  • openEuler aarch64 (310p)
  • openEuler aarch64 (910b, ACL Graph)

AI 자동 생성 콘텐츠

본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
3

댓글

0