본문으로 건너뛰기

© 2026 Molayo

Transformers중요헤드라인2026. 04. 26. 09:27

[Hugging Face] Transformers v5.6.1 패치 릴리스, Flash Attention 오류 수정

요약

Hugging Face의 Transformers 라이브러리 v5.6.1 버전이 출시되었습니다. 이번 릴리스는 이전 버전에서 발생했던 'Flash Attention' 경로의 심각한 결함을 해결합니다. 구체적으로 `flash_attention_forward` 함수 내에서 `s_aux=None` 인자가 주어졌을 때 발생하는 AttributeError 문제를 수정했습니다. 이 업데이트를 통해 Flash Attention 기반 모델을 안정적으로 실행할 수 있게 되었으며, 관련 개발자들은 최신 버전을 설치하여 사용해야 합니다.

핵심 포인트

  • Transformers 라이브러리 v5.6.1 버전이 공식 출시되었습니다.
  • Flash Attention 경로의 결함으로 인해 발생하던 AttributeError 문제가 해결되었습니다.
  • `flash_attention_forward` 함수 내 `s_aux=None` 인자 처리 로직이 수정되었습니다.

Patch release v5.6.1

Flash attention path was broken! Sorry everyone for this one 🤗

Fix AttributeError on s_aux=None in flash_attention_forward ( #45589 ) by @jamesbraza

AI 자동 생성 콘텐츠

본 콘텐츠는 HuggingFace Transformers Releases의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0