llama-mmap 업데이트: ftello/fseeko 사용 (#22497) llama-mmap 업데이트: 32-bit wasm 및 >2GB 모
요약
llama-mmap 라이브러리가 대규모 언어 모델(LLM)의 배포 및 호환성을 크게 향상시킨 업데이트를 발표했습니다. 이번 업데이트는 32비트 WASM 지원과 2GB 이상의 대용량 모델을 처리할 수 있는 기능을 추가한 것이 핵심입니다. 또한, macOS (Apple Silicon/Intel), Linux (CPU, Vulkan, ROCm, OpenVINO 등 다양한 백엔드 포함), Android, Windows, openEuler 등 광범위한 운영체제 및 아키텍처를 지원하는 빌드를 제공하여 범용성을 극대화했습니다.
핵심 포인트
- 32비트 WASM 환경 지원을 추가하여 웹 기반 LLM 배포의 폭을 넓혔습니다.
- >2GB 모델 처리가 가능해져 더 크고 복잡한 최신 LLM도 구동할 수 있게 되었습니다.
- macOS, Linux, Windows, Android 등 주요 플랫폼별로 다양한 하드웨어 가속기(CUDA, Vulkan, ROCm, OpenVINO 등)를 지원하는 빌드를 제공합니다.
- Apple Silicon 및 Intel 기반의 macOS/iOS 업데이트가 이루어졌으며, 최적화된 성능을 기대할 수 있습니다.
llama-mmap 업데이트: ftello/fseeko 사용 (#22497)
llama-mmap 업데이트: 32-bit wasm 및 >2GB 모델 지원
gguf.cpp 스타일의 macOS/iOS 업데이트:
- macOS Apple Silicon (arm64)
- macOS Apple Silicon (arm64, KleidiAI 활성화됨)
- macOS Intel (x64)
- iOS XCFramework
Linux: - Ubuntu x64 (CPU)
- Ubuntu arm64 (CPU)
- Ubuntu s390x (CPU)
- Ubuntu x64 (Vulkan)
- Ubuntu arm64 (Vulkan)
- Ubuntu x64 (ROCm 7.2)
- Ubuntu x64 (OpenVINO)
- Ubuntu x64 (SYCL FP32)
- Ubuntu x64 (SYCL FP16)
Android: - Android arm64 (CPU)
Windows: - Windows x64 (CPU)
- Windows arm64 (CPU)
- Windows x64 (CUDA 12) - CUDA 12.4 DLLs
- Windows x64 (CUDA 13) - CUDA 13.1 DLLs
- Windows x64 (Vulkan)
- Windows x64 (SYCL)
- Windows x64 (HIP)
openEuler: - openEuler x86 (310p)
- openEuler x86 (910b, ACL Graph)
- openEuler aarch64 (310p)
- openEuler aarch64 (910b, ACL Graph)
AI 자동 생성 콘텐츠
본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기