vLLM ROCm has been added to Lemonade as an experimental backend
요약
Lemonade 플랫폼에 vLLM ROCm 백엔드가 실험적으로 추가되었습니다. 이 업데이트를 통해 사용자는 GGUF로 변환되지 않은 원본 .safetensors 형식의 LLM을 vLLM 엔진으로 실행할 수 있게 되었습니다. 이는 기존 llama.cpp와 유사하게 간편한 방식으로 새로운 모델 엔진을 통합하는 것을 목표로 하며, 커뮤니티 피드백을 통해 지속적으로 확장될 예정입니다.
핵심 포인트
- Lemonade에 vLLM ROCm 백엔드가 실험적 기능으로 추가되었다.
- 이 기능을 사용하면 GGUF 변환 없이 원본 .safetensors 형식의 LLM을 실행할 수 있다.
- 사용 방법은 `lemonade backends install vllm:rocm` 명령어를 통해 쉽게 설정 가능하다.
- 이는 커뮤니티 피드백을 바탕으로 점진적으로 확장될 예정인 실험적 기능이다.
vLLM 는 GGUF 로 변환되기 전에 .safetensors LLM 을 실행할 수 있는 능력을 가지고 있으며, 새로운 엔진을 탐색할 수 있습니다. 저는 u/krishna2910-amd/, u/mikkoph, u/sa1sr1 이 Lemonade 에서 llama.cpp 를 실행하는 것처럼 쉽게 만들었기 때문에 처음 시도해 본 적이 없습니다.
lemonade backends install vllm:rocm
lemonade run Qwen3.5-0.8B-vLLM
우리의 관점에서 이는 실험적 백엔드이므로 필수 기능은 구현되었으나 알려진 문제점이 있습니다. 우리는 커뮤니티의 피드백을 통해 어디까지, 어떻게 확장할지 확인하고자 합니다. 흥미로워하신다면 여러분의 의견을 알려주세요!
빠른 시작 가이드: https://lemonade-server.ai/news/vllm-rocm.html
GitHub: https://github.com/lemonade-sdk/lemonade
Discord: https://discord.gg/5xXzkMu8Zk
AI 자동 생성 콘텐츠
본 콘텐츠는 r/LocalLLaMA의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기