Insights
AI가 자동으로 큐레이션·번역·정리하는 기술 동향 피드입니다.
HuggingFace Transformers Releases 11건필터 해제
릴리스 v5.7.0
릴리스 v5.7.0은 새로운 모델 아키텍처인 Laguna(MoE)와 DEIMv2(객체 탐지)를 추가하고, 기존의 주의(Attention) 메커니즘 및 토크나이저 관련 버그들을 광범위하게 수정했습니다. 또한 연속 배치 생성 기능과 커널 지원을 개선하여 긴 시퀀스 처리 능력과 다양한 모델 아키텍처에 대한 호환성을 크게 향상시켰습니다.
패치 릴리스: v5.5.3
이 기술 기사는 Gemma4 모델의 `device_map` 지원 기능을 수정하는 작은 패치 릴리스에 대한 공지입니다. 해당 업데이트는 특정 커밋([gemma4] Fix device map auto (#45347))을 포함하며, 사용자들이 모델 배포 및 관리에 있어 더 안정적인 환경을 제공하도록 개선되었습니다.
Hugging Face Transformers v5.5.1 패치 릴리스: Gemma4 및 vLLM 오류 수정
Hugging Face Transformers 라이브러리의 초소형 패치 릴리스 v5.5.1이 출시되었습니다. 이번 업데이트는 주요 모델인 Gemma4의 내보내기(export) 기능 오류를 해결하고, vLLM 관련 cis 문제를 수정하는 데 집중했습니다. @Cyrilvallez 와 @ArthurZucker 가 기여한 이 변경사항은 #45285 와 #45139 이슈를 통해 반영되었으며, Gemma4 모델의 원활한 배포와 vLLM과의 통합 테스트 안정성을 확보합니다.
[Hugging Face] Transformers v5.6.1 패치 릴리스, Flash Attention 오류 수정
Hugging Face의 Transformers 라이브러리 v5.6.1 버전이 출시되었습니다. 이번 릴리스는 이전 버전에서 발생했던 'Flash Attention' 경로의 심각한 결함을 해결합니다. 구체적으로 `flash_attention_forward` 함수 내에서 `s_aux=None` 인자가 주어졌을 때 발생하는 AttributeError 문제를 수정했습니다. 이 업데이트를 통해 Flash Attention 기반 모델을 안정적으로 실행할 수 있게 되었으며, 관련 개발자들은 최신 버전을 설치하여 사용해야 합니다.
Hugging Face Transformers v5.6.2 패치 릴리스: Qwen 3.5/3.6 FP8 버그 수정
TL;DR: Hugging Face의 Transformers 라이브러리 v5.6.2 패치가 출시되었습니다. 주요 변경사항은 Qwen 3.5 및 3.6 MoE (text-only) 모델이 FP8 정밀도를 사용할 때 발생하는 작동 오류를 수정한 것입니다. 또한, @hmellor 가 기여한 커널 구성 읽기 및 에러 핸들링 개선 사항 (#45610) 이 포함되어 있어 안정성이 향상되었습니다.
Hugging Face Transformers v5.3.0: 최신 모델 및 아키텍처 업데이트 정리
Hugging Face Transformers 라이브러리가 v5.3.0 버전을 출시하며 다양한 분야의 최신 모델들을 추가하고 아키텍처 개선 사항을 발표했습니다. 주요 업데이트로는 다국어 지원이 강화된 EuroBERT, 60분 분량의 오디오 입력을 처리하는 VibeVoice ASR 등 음성 인식(ASR) 기능의 대폭 향상이 눈에 띕니다. 또한 시계열 예측을 위한 TimesFM 2.5와 문서 레이아웃 분석 전용 PP-DocLayoutV2 같은 전문 모델들이 추가되어, AI 기반 애플리케이션 개발자들이 다양한 도메인에서 최신 성능을 확보
Transformers v5.4.0 릴리즈: Mistral 4, VidEoMT 등 최신 모델 대거 추가
Hugging Face Transformers 라이브러리가 v5.4.0 버전을 출시하며 다양한 최첨단 모델들을 대거 지원합니다. 주요 업데이트로는 범용성과 추론 능력을 결합한 하이브리드 모델 'Mistral 4', 온라인 비디오 분할을 위한 경량 모델 'VidEoMT'가 포함됩니다. 또한, 다국어 및 장문 처리가 가능한 임베딩 모델 'Jina Embeddings v3'와 로봇 작업을 위한 시각-언어-행동 모델 'PI0' 등 전문 분야의 최신 기술들이 추가되어 개발자들이 더욱 폭넓고 강력한 AI 애플리케이션을 구축할 수 있게 되면서,
Hugging Face Transformers v5.5.0 릴리즈: Gemma 4, NomicBERT 등 주요 모델 추가 및 성능 개선
Transformers 라이브러리 v5.5.0이 출시되며, 최신 멀티모달 모델인 Gemma 4와 고성능 임베딩 모델 NomicBERT가 핵심적으로 추가되었습니다. 특히 Gemma 4는 이미지의 자연스러운 종횡비를 유지하면서도 고정된 토큰 예산으로 다양한 크기의 이미지를 처리할 수 있는 혁신적인 비전 프로세서를 갖추었습니다. 또한, 음악 이해에 특화된 Music Flamingo와 Mamba 기반 모델을 위한 네이티브 캐시 지원 등 전반적인 성능과 안정성이 대폭 향상되었습니다. 개발자들은 최신 기능을 활용하여 멀티모달 및 임베딩 태스크
Transformers v5.5.2 릴리스: Gemma-4 최적화 및 모델 호환성 개선
Hugging Face Transformers 라이브러리 버전 5.5.2 패치 릴리스는 주요 LLM인 Gemma-4의 성능 최적화와 안정성을 높이는 데 중점을 두었습니다. 특히, `use_cache=False` 사용 시 발생하는 k/v 상태 공유 문제를 해결하고, 모델 가중치 이름 직렬화(serialization) 불일치를 수정했습니다. 또한, 여러 멀티모달 모델(VLMs)의 변환 매핑을 개선하여 다양한 아키텍처에서 일관된 로딩 및 사용이 가능하도록 지원합니다.
Transformers v5.5.4 패치 노트: 토크나이저 및 학습 안정성 개선
Hugging Face Transformers 라이브러리 v5.5.4가 출시되어 주요 토크나이저 관련 버그 수정과 DeepSpeed ZeRO-3 환경에서의 안정성을 강화했습니다. 특히 Kimi-K2.5와 같은 특정 모델의 토크나이저 회귀 문제를 해결하고, Qwen2.5-VL에서 정지 이미지에 대한 시간적 RoPE 스케일링 오류를 수정하여 전반적인 사용 편의성과 학습 신뢰도를 높였습니다. 개발자는 이 패치를 적용하여 즉시 안정화된 환경을 구축할 수 있습니다.
Transformers v5.6.0 릴리즈: PII 필터, 문서 지능 모델 및 서빙 기능 강화
이번 Transformers v5.6.0 릴리즈는 개발 워크플로우의 효율성과 범용성을 크게 높인 업데이트를 포함합니다. 주요 내용은 개인 식별 정보(PII) 탐지 및 마스킹을 위한 'OpenAI Privacy Filter' 추가, Baidu 등의 최신 기술이 적용된 고성능 문서 지능 모델 (Qianfan-OCR, SLANet 등) 지원 강화입니다. 또한, `transformers serve` 기능에 멀티모달 지원(오디오/비디오), 레거시 OpenAI API 엔드포인트(`/v1/completions`) 추가 및 툴 호출 처리 개선을
이 피드 구독하기
본 페이지의 콘텐츠는 AI가 공개된 소스를 기반으로 자동 수집·요약·번역한 것입니다. 원 저작권은 각 원저작자에게 있으며, 각 게시물의 “원문 바로가기” 링크를 통해 원문을 확인할 수 있습니다. 저작권자의 삭제 요청이 있을 경우 신속히 조치합니다.