본문으로 건너뛰기

© 2026 Molayo

HuggingFace헤드라인2026. 05. 04. 16:02

Hugging Face Hub 의 모든 LLM 을 Together AI 로부터 미세 조정하세요

요약

Together AI가 Hugging Face Hub의 모든 LLM을 자신들의 플랫폼에서 쉽게 미세 조정할 수 있는 기능을 출시했습니다. 이 통합은 복잡하고 비쌌던 기존의 미세 조정 인프라 문제를 해결하며, 사용자는 이제 Meta나 개별 기여자 등 출처에 관계없이 Hub의 호환 가능한 모든 모델을 Together AI 환경에서 일관된 용이성과 신뢰성으로 훈련할 수 있습니다. 또한, 훈련 후에는 결과물을 다시 Hugging Face Hub로 자동 업로드하여 커뮤니티와 공유하는 양방향 워크플로우를 지원합니다.

핵심 포인트

  • Hugging Face Hub의 모든 LLM을 Together AI 플랫폼에서 미세 조정 가능하게 함으로써 접근성을 극대화했습니다.
  • 복잡하고 비쌌던 전통적인 미세 조정 인프라 설정 및 유지보수 과정을 간소화했습니다 (마찰 제거).
  • 미세 조정을 위해 '기본 모델(Base Model)'과 '사용자 지정 모델(Custom Model)' 두 가지를 지정하는 방식으로 작동합니다. 기본 모델은 훈련 템플릿 역할을 합니다.
  • 이 통합은 양방향으로 작동하여, Together AI에서 Hugging Face Hub의 공개/사설 모델을 가져와 훈련하고, 결과를 다시 Hub로 업로드할 수 있습니다.
  • 사용자는 이제 몇 번의 API 호출만으로 흥미로운 모델을 발견한 후 프로덕션 환경에 배포하는 빠른 반복 주기를 확보할 수 있습니다.

하지만 여기서의 도전 과제는: 훌륭한 모델을 찾는 것이 시작일 뿐입니다. 사용 사례에 대해 90% 완벽하다고 알려진 모델이 발견되었을 때, 나머지 10%의 커스터마이징이 필요한 경우 어떻게 되는지? 전통적인 미세 조정 인프라는 복잡하고 비싸며, 설정 및 유지보수에 상당한 DevOps 전문 지식이 필요합니다.

Together AI 와 Hugging Face 는 오늘 이 격차를 해소합니다. Together AI 의 인프라를 사용하여 Hugging Face Hub 의 전체 기능을 미세 조정에 사용할 수 있는 강력한 새로운 기능을 발표합니다. 이제 Meta 나 개별 기여자에서든 상관없이 Hub 의 모든 호환 가능한 LLM 은 Together 의 플랫폼에서 기대하는 것과 같은 용이성과 신뢰성을 가지고 미세 조정할 수 있습니다.

Hugging Face 모델을 Together AI 플랫폼에서 미세 조정하기 위해 필요한 것은 다음과 같습니다:

#pip install together
from together import Together
client = Together(api_key="your-api-key")
...

그만! 모델은 Together 의 인프라에서 훈련되며 추론을 위해 배포할 수 있고, 다운로드하거나 Hub 로 다시 업로드할 수 있습니다. 사설 저장소는 hf_api_token="hf_xxxxxxxxxxxx" 와 함께 HF 토큰을 추가하면 됩니다.

위의 예시와 같이, Hugging Face 모델을 Together AI 에서 미세 조정할 때 실제로 두 개의 모델을 지정합니다:

Base Model(model 파라미터): Together 의 공식 카탈로그에서 온 모델로 인프라 구성, 훈련 최적화 및 추론 설정을 제공합니다.Custom Model(from_hf_model 파라미터): 실제 미세 조정되는 Hugging Face 모델입니다.

기본 모델을 "훈련 템플릿"으로 생각하세요. 그것은 GPU 리소스 최적 배분, 메모리 사용 설정, 훈련 파이프라인 설정 및 추론 준비를 알려줍니다. 커스터텀 모델은 최적의 결과를 위해 기본 모델과 유사한 아키텍처, 대략적인 크기 및 시퀀스 길이를 가져야 합니다.

위의 예시와 같이, HuggingFaceTB/SmolLM2-1.7B-Instruct (Llama 아키텍처 사용) 를 미세 조정하고 싶다면, 동일한 기본 아키텍처를 공유하기 때문에 togethercomputer/llama-2-7b-chat 을 기본 모델 템플릿으로 사용합니다.

이 통합은 양방향으로 작동합니다. Together AI 는 훈련을 위해 Hugging Face Hub 의 호환 가능한 공개 모델을 가져올 수 있으며, 올바른 API 토큰과 함께 사설 저장소도 다운로드할 수 있습니다. 훈련 후 hf_output_repo_name 을 지정하면 미세 조정된 모델이 자동으로 Hub 로 다시 업로드되어 팀 또는 더 넓은 커뮤니티와 공유할 수 있습니다.

일반적으로 모든 100B 파라미터 이하의 CausalLM 모델은 작동하도록 의도되었습니다. 기본 및 커스터텀 모델을 선택하는 방법과 더 많은 내용에 대한 종합 가이드를 읽으세요!

이 통합은 우리가 겪어 온 실제 문제를 해결합니다: Hugging Face 에서 훌륭한 모델을 찾았지만 특정 필요에 맞게 미세 조정하기 위한 인프라가 없는 경우. 이제 몇 개의 API 호출로 흥미로운 모델을 발견한 맞춤형 버전을 프로덕션에서 실행할 수 있습니다.

여기서 큰 승리는 마찰 제거입니다. 훈련 인프라를 설정하는 데 며칠을 보내거나 다양한 플랫폼이 공식적으로 지원하는 모델에 제한되는 대신, Hub 의 호환 가능한 모든 모델을 실험할 수 있습니다. 필요한 것과 가까운 전문 코딩 모델을 찾았나요? 데이터를 사용하여 훈련하세요!

팀에게는 더 빠른 반복 주기를 의미합니다. 여러 모델 접근법을 빠르게 테스트하고 커뮤니티 혁신을 구축하며, 심지어 추가 커스터마이징의 시작점으로 자체 미세 조정된 모델을 사용할 수 있습니다.

이 기능의 베타 사용자 및 초기 채택자는 다양한 사용 사례에서 결과를 보고 있습니다.

Slingshot AI 는 이 기능을 직접 모델 개발 파이프라인에 통합했습니다. Together 의 모델 카탈로그에 제한되지 않고 훈련 파이프라인의 일부 자체 인프라에서 실행하고, 해당 모델을 Hub 로 업로드한 후 계속 미세 조정할 수 있습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 Hugging Face Blog의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0