본문으로 건너뛰기

© 2026 Molayo

llama.cpp헤드라인2026. 04. 30. 07:21

ggml-webgpu: FlashAttention 지원 확인에 있는 버그 수정 (#22492) FlashAttention 지원 확인을 subgr

요약

이 기술 기사는 ggml-webgpu 라이브러리에서 FlashAttention 지원 확인 과정 중 발견된 버그를 수정하는 내용을 다룹니다. 특히 서브그룹(subgroups)을 지원하지 않는 다양한 장치 환경에 대한 호환성 문제를 해결하여, 더 넓은 범위의 하드웨어 및 운영체제 조합에서 FlashAttention 기능이 안정적으로 작동하도록 보장합니다.

핵심 포인트

  • ggml-webgpu 라이브러리의 버그 수정 사항입니다.
  • 주요 수정 내용은 서브그룹을 지원하지 않는 장치 환경에서의 FlashAttention 지원 확인 로직 개선입니다.
  • macOS, Linux, Android, Windows 등 광범위한 플랫폼과 다양한 백엔드(CPU, Vulkan, CUDA, ROCm, OpenVINO, SYCL 등)에서 호환성을 확보했습니다.

ggml-webgpu: FlashAttention 지원 확인에 있는 버그 수정 (#22492)

FlashAttention 지원 확인을 subgroups 를 지원하지 않는 장치에 대해 수정합니다.

경로를 none 으로 설정하는 경우:

  • macOS/iOS:
    • macOS Apple Silicon (arm64)
    • macOS Apple Silicon (arm64, KleidiAI 활성화됨)
    • macOS Intel (x64)
    • iOS XCFramework
  • Linux:
    • Ubuntu x64 (CPU)
    • Ubuntu arm64 (CPU)
    • Ubuntu s390x (CPU)
    • Ubuntu x64 (Vulkan)
    • Ubuntu arm64 (Vulkan)
    • Ubuntu x64 (ROCm 7.2)
    • Ubuntu x64 (OpenVINO)
    • Ubuntu x64 (SYCL FP32)
    • Ubuntu x64 (SYCL FP16)
  • Android:
    • Android arm64 (CPU)
  • Windows:
    • Windows x64 (CPU)
    • Windows arm64 (CPU)
    • Windows x64 (CUDA 12) - CUDA 12.4 DLLs
    • Windows x64 (CUDA 13) - CUDA 13.1 DLLs
    • Windows x64 (Vulkan)
    • Windows x64 (SYCL)
    • Windows x64 (HIP)
  • openEuler:
    • openEuler x86 (310p)
    • openEuler x86 (910b, ACL Graph)
    • openEuler aarch64 (310p)
    • openEuler aarch64 (910b, ACL Graph)

AI 자동 생성 콘텐츠

본 콘텐츠는 llama.cpp Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
4

댓글

0