본문으로 건너뛰기

© 2026 Molayo

llama.cpp헤드라인2026. 05. 01. 17:58

llama-mmap 업데이트: ftello/fseeko 사용 (#22497) llama-mmap 업데이트: 32-bit wasm 및 >2GB 모

요약

llama-mmap 라이브러리가 대규모 언어 모델(LLM)의 배포 및 호환성을 크게 향상시킨 업데이트를 발표했습니다. 이번 업데이트는 32비트 WASM 지원과 2GB 이상의 대용량 모델을 처리할 수 있는 기능을 추가한 것이 핵심입니다. 또한, macOS (Apple Silicon/Intel), Linux (CPU, Vulkan, ROCm, OpenVINO 등 다양한 백엔드 포함), Android, Windows, openEuler 등 광범위한 운영체제 및 아키텍처를 지원하는 빌드를 제공하여 범용성을 극대화했습니다.

핵심 포인트

  • 32비트 WASM 환경 지원을 추가하여 웹 기반 LLM 배포의 폭을 넓혔습니다.
  • >2GB 모델 처리가 가능해져 더 크고 복잡한 최신 LLM도 구동할 수 있게 되었습니다.
  • macOS, Linux, Windows, Android 등 주요 플랫폼별로 다양한 하드웨어 가속기(CUDA, Vulkan, ROCm, OpenVINO 등)를 지원하는 빌드를 제공합니다.
  • Apple Silicon 및 Intel 기반의 macOS/iOS 업데이트가 이루어졌으며, 최적화된 성능을 기대할 수 있습니다.

llama-mmap 업데이트: ftello/fseeko 사용 (#22497)
llama-mmap 업데이트: 32-bit wasm 및 >2GB 모델 지원
gguf.cpp 스타일의 macOS/iOS 업데이트:

  • macOS Apple Silicon (arm64)
  • macOS Apple Silicon (arm64, KleidiAI 활성화됨)
  • macOS Intel (x64)
  • iOS XCFramework
    Linux:
  • Ubuntu x64 (CPU)
  • Ubuntu arm64 (CPU)
  • Ubuntu s390x (CPU)
  • Ubuntu x64 (Vulkan)
  • Ubuntu arm64 (Vulkan)
  • Ubuntu x64 (ROCm 7.2)
  • Ubuntu x64 (OpenVINO)
  • Ubuntu x64 (SYCL FP32)
  • Ubuntu x64 (SYCL FP16)
    Android:
  • Android arm64 (CPU)
    Windows:
  • Windows x64 (CPU)
  • Windows arm64 (CPU)
  • Windows x64 (CUDA 12) - CUDA 12.4 DLLs
  • Windows x64 (CUDA 13) - CUDA 13.1 DLLs
  • Windows x64 (Vulkan)
  • Windows x64 (SYCL)
  • Windows x64 (HIP)
    openEuler:
  • openEuler x86 (310p)
  • openEuler x86 (910b, ACL Graph)
  • openEuler aarch64 (310p)
  • openEuler aarch64 (910b, ACL Graph)

AI 자동 생성 콘텐츠

본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
7

댓글

0