Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
Ollama Releases 9건필터 해제
Claude Desktop with Ollama Launch Claude Desktop 는 이제 Ollama Launch 와 함께 지원됩니다
Claude Desktop 애플리케이션이 Ollama Launch 기능을 지원하며, 이를 통해 Claude Cowork와 Claude Code 기능에 접근할 수 있게 되었습니다. 사용자는 터미널에서 `ollama launch claude` 명령어를 사용하여 여전히 Claude Code를 실행할 수 있습니다. 이번 업데이트에서는 Ollama 앱의 서버 기반 추천 모델 표시가 개선되었고, Windows 환경에서의 OpenClaw 게이트웨이 타임아웃 문제 및 Metal 초기화 관련 안정성 향상도 이루어졌습니다.
# v0.22.1 ## 변경 사항 - **Gemma 4** 렌더러 업데이트: 추론 (thinking) 및 도구 호출 (tool calling)
이 버전(v0.22.1)은 Gemma 4 모델의 렌더러를 업데이트하여 추론(thinking) 및 도구 호출(tool calling) 기능을 개선했습니다. 또한, Ollama 업데이트 없이도 최신 모델 추천을 받을 수 있게 되었으며, `ollama launch` 기능과 데스크톱 앱의 사용자 인터페이스 정렬이 이루어졌습니다.
# v0.22.1 ## 변경 사항 - mlxrunner: #15736 에서 @jessegross 에 의해 여러 시퀀스 간 샘플러를 배치 (bat
이 버전(v0.22.1)은 여러 주요 업데이트를 포함하고 있으며, 특히 mlxrunner에서 여러 시퀀스에 대한 샘플러 배치 처리를 지원하도록 개선되었습니다. 또한 토크나이저의 다중 정규식 BPE 오프셋 처리 수정, NVIDIA TensorRT Model Optimizer 가져오기 지원 등 모델 및 인프라 관련 기능들이 강화되었습니다. 전반적으로 모델 배포와 성능 최적화에 초점을 맞춘 업데이트입니다.
v0.22.0
이 기술 기사는 새로운 버전(v0.22.0)의 출시를 알리며, 특히 NVIDIA의 Nemotron 3 Omni Poolside와 같은 최신 모델과 연관된 오픈 가중치 코딩 모델인 Laguna XS.2에 대한 변경 로그를 제공합니다. 이는 개발자들이 해당 모델을 활용하여 코딩 및 AI 관련 작업을 수행할 수 있도록 업데이트 내용을 안내하는 목적을 가지고 있습니다.
v0.22.1
이 기술 기사는 특정 소프트웨어 버전(v0.22.1)의 업데이트 내용을 요약하고 있습니다. 주요 변경 사항으로는 mlxrunner에서 샘플러 배치 기능 추가, 토크나이저의 다중 정규식 BPE 오프셋 처리 수정, 그리고 mlx가 NVIDIA TensorRT 모델 최적화 임포트를 지원하게 된 점 등이 포함됩니다. 또한, 앱 서버 및 다양한 모델 관련 개선사항들이 적용되었습니다.
Ollama v0.21.3-rc0: 'max' 값 수용 및 OpenAI 추론 매핑 업데이트
Ollama v0.21.3-rc0 릴리스가 공식 출시되었습니다. 이번 업데이트는 API 호출 시 'think' 파라미터에 'max' 값을 허용하도록 개선하고, OpenAI 모델의 응답 추론 노력(reasoning effort)을 Ollama의 'think' 필드와 매핑하여 호환성을 높였습니다. 개발자들은 이제 더 유연한 추론 설정과 원활한 OpenAI 생태계 통합을 경험할 수 있습니다.
Ollama v0.21.2 릴리스: OpenClaw 통합 및 UI 개선
Ollama v0.21.2 가 출시되었습니다. 이번 업데이트는 OpenClaw 온보딩 플로우의 신뢰성을 높이고, ollama launch 명령어에서 추천 모델이 고정된 순서로 표시되도록 개선했습니다. 또한 OpenClaw 통합에 Ollama 웹 검색 플러그인이 자동으로 포함되도록 변경되어 설치 과정이 간소화되었습니다.
Ollama v0.21.0 업데이트: Gemma 4 지원 및 에이전트 통합 강화
이번 Ollama v0.21.0 버전은 주요 모델인 Gemma 4를 Apple Silicon 환경에서 MLX 백엔드를 통해 실행할 수 있도록 지원하는 것이 가장 큰 변화입니다. 이를 통해 사용자는 Mac 환경에서 최적화된 성능으로 Gemma 4를 활용할 수 있게 되었습니다. 또한, 'ollama launch' 기능에 Hermes Agent와 GitHub Copilot CLI 통합이 추가되어, 다양한 코딩 에이전트를 하나의 명령어로 쉽게 설정하고 관리할 수 있게 되었습니다. 이 외에도 여러 설정 파일 관련 버그 수정 및 빌드 안정성(
Ollama v0.21.1 업데이트: Kimi CLI 지원 및 MLX 성능 개선
Ollama의 최신 버전인 v0.21.1이 출시되어 사용자들에게 다양한 기능 개선 사항을 제공합니다. 가장 주목할 만한 변화는 Kimi CLI를 Ollama를 통해 직접 설치하고 실행할 수 있게 되었다는 점입니다. 이를 통해 장기적인 에이전트 작업 수행에 강점을 가진 Kimi-K2.6 모델을 활용할 수 있습니다. 또한, MLX 러너의 성능과 안정성이 대폭 향상되었으며, GLM4 MoE Lite와 같은 특정 모델의 효율성 개선도 이루어졌습니다. macOS 앱의 버그 수정 및 Gemma 4를 위한 구조화된 출력 기능 추가 등 전반적인
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.