본문으로 건너뛰기

© 2026 Molayo

HuggingFace헤드라인2026. 05. 14. 09:56

열린 미래를 위한 구축 - Google Cloud와의 새로운 파트너십

요약

Hugging Face는 새로운 전략적 파트너십을 통해 Google Cloud와의 협력을 강화하며, 모든 기업이 자신만의 AI를 구축하고 커스터마이징할 수 있는 환경을 제공합니다. 이 파트너십은 Vertex AI, GKE, Cloud Run 등 다양한 Google Cloud 서비스에서 Hugging Face의 방대한 오픈 모델(open models)을 쉽게 배포하고 사용할 수 있도록 지원하며, CDN Gateway와 같은 기술적 개선을 통해 모델 공급망의 안정성과 속도를 대폭 향상시킵니다. 또한, TPU 네이티브 지원 및 강화된 보안 기능을 통합하여 사용자들에게 최고의 성능과 안전성을 제공하는 것을 목표로 합니다.

핵심 포인트

  • Google Cloud는 Hugging Face의 오픈 모델 생태계를 활용하여 AI 구축을 위한 최적의 플랫폼임을 강조합니다.
  • CDN Gateway를 도입하여 Hugging Face 모델/데이터셋 캐싱 및 전송 속도를 개선하고, 모델 공급망의 견고함을 강화합니다.
  • Vertex AI, GKE, Cloud Run 등 다양한 Google Cloud 서비스에서 오픈 모델 배포가 간소화되고 최적화됩니다.
  • TPU(Tensor Processing Units)에 대한 네이티브 지원을 제공하여 Hugging Face 사용자들이 차세대 하드웨어 혜택을 누릴 수 있게 합니다.
  • VirusTotal, Mandiant 등을 활용한 보안 기술 통합으로 Hugging Face 모델 및 데이터셋의 안전성을 높입니다.

*“Google은 OG transformer부터 Gemma 모델에 이르기까지 오픈 AI (open AI)에 가장 영향력 있는 기여를 해왔습니다. 저는 모든 기업이 자신만의 AI를 구축하고 커스터마이징하는 미래를 믿습니다. 이번 새로운 전략적 파트너십을 통해, 우리는 Google Cloud에서 이를 쉽게 수행할 수 있도록 만들고 있습니다.”*라고 Hugging Face의 Jeff Boudier는 말합니다.

*“Hugging Face는 전 세계의 대기업과 중소기업 모두가 200만 개 이상의 오픈 모델 (open models)에 접근하고, 사용하며, 커스터마이징할 수 있도록 지원하는 원동력이 되어 왔으며, 우리는 1,000개 이상의 모델을 커뮤니티에 기여해 온 것을 자랑스럽게 생각합니다.”*라고 Google Cloud의 제품 관리 시니어 디렉터인 Ryan J. Salva는 말합니다. “우리는 함께 Google Cloud를 오픈 모델로 구축하기 위한 최고의 장소로 만들 것입니다.”

Google Cloud 고객들은 Google Cloud의 여러 주요 AI 서비스에서 Hugging Face의 오픈 모델을 사용합니다. Vertex AI에서 가장 인기 있는 오픈 모델들은 Model Garden 내에서 클릭 몇 번만으로 배포할 준비가 되어 있습니다. AI 인프라에 대해 더 큰 제어권을 원하는 고객은 GKE AI/ML에서 유사한 모델 라이브러리를 찾거나, Hugging Face가 관리하는 사전 구성된 환경을 사용할 수 있습니다. 또한 고객들은 Cloud Run GPU를 통해 AI 추론 (inference) 워크로드를 실행하여 서버리스 (serverless) 오픈 모델 배포를 구현할 수 있습니다.

공통된 핵심은 다음과 같습니다: 우리는 고객에게 선택권을 제공하기 위해 각 서비스의 고유한 역량을 최대한 활용하여 원활한 경험을 구축하고자 Google Cloud와 협력하고 있습니다.

Google Cloud 고객의 Hugging Face 사용량은 지난 3년 동안 10배 성장했으며, 오늘날 이는 매달 수십 페타바이트 (petabytes)의 모델 다운로드와 수십억 건의 요청으로 이어지고 있습니다.

Google Cloud 고객이 Hugging Face의 모델과 데이터셋을 사용하여 구축할 때 최상의 경험을 할 수 있도록, 우리는 Hugging Face Xet 최적화 스토리지 및 데이터 전송 기술과 Google Cloud의 고급 스토리지 및 네트워킹 역량 모두를 기반으로 구축된 Hugging Face 리포지토리(repositories)용 CDN 게이트웨이 (CDN Gateway)를 만들기 위해 함께 협력하고 있습니다.

이 CDN 게이트웨이 (CDN Gateway)는 Hugging Face 모델과 데이터셋 (datasets)을 Google Cloud에 직접 캐싱 (cache)하여 다운로드 시간을 크게 단축하고, Google Cloud 고객을 위한 모델 공급망 (model supply chain)의 견고함을 강화할 것입니다. Vertex, GKE, Cloud Run을 사용하든, 혹은 Compute Engine의 VM (가상 머신)에서 직접 스택 (stack)을 구축하든, 여러분은 더 빠른 첫 번째 토큰 생성 시간 (time-to-first-token)과 간소화된 모델 거버넌스 (model governance)의 혜택을 누리게 될 것입니다.

Hugging Face Inference Endpoints는 단 몇 번의 클릭만으로 모델에서 배포 (deployment)까지 갈 수 있는 가장 쉬운 방법입니다. 이번 심화된 파트너십을 통해 우리는 Inference Endpoints를 시작으로 Google Cloud의 독보적인 역량과 비용 효율성을 Hugging Face 고객들에게 제공할 것입니다. 더 많고 새로운 인스턴스 (instances)의 가용성과 가격 인하를 기대해 주세요!

우리는 제품 및 엔지니어링 협업의 모든 결실이 Hugging Face의 1,000만 AI 빌더 (AI Builders)들에게 쉽게 제공될 수 있도록 보장할 것입니다. 모델 페이지에서 Vertex Model Garden 또는 GKE로 배포하는 과정은 단 몇 단계만 거치면 되어야 합니다. Hugging Face의 엔터프라이즈 (Enterprise) 조직에 안전하게 호스팅된 프라이빗 모델 (private model)을 사용하는 것도 공개 모델 (public models)을 다루는 것만큼 쉬워져야 합니다.

현재 7세대에 이른 Google의 커스텀 AI 가속기 칩인 TPU (TPUs)는 성능과 소프트웨어 스택 (software stack)의 성숙도 면에서 꾸준히 향상되어 왔습니다. 우리는 Hugging Face 사용자들이 오픈 모델 (open models)로 AI를 구축할 때 현재 및 차세대 TPU의 혜택을 온전히 누릴 수 있도록 하고자 합니다. 당사 라이브러리들의 네이티브 지원 (native support) 덕분에, Hugging Face 모델을 위한 TPU 사용을 GPU만큼 쉽게 만들 수 있게 되어 매우 기쁩니다.

또한, 이번 새로운 파트너십을 통해 Hugging Face는 Google의 업계 선도적인 보안 기술을 활용하여 Hugging Face에 있는 수백만 개의 오픈 모델을 더욱 안전하게 만들 수 있게 될 것입니다. VirusTotal, Google Threat Intelligence, Mandiant를 기반으로 하는 이 공동 노력은 여러분이 매일 Hugging Face Hub를 사용하는 동안 모델, 데이터셋 (datasets), 그리고 Spaces를 안전하게 보호하는 것을 목표로 합니다.

우리는 모든 기업이 오픈 모델 (open models)을 사용하여 자신만의 AI를 구축하고, 완전한 제어권을 가진 채 자신들의 안전한 인프라 내에 이를 호스팅할 수 있는 미래를 보고 싶습니다. 우리는 Google Cloud와 함께 이러한 미래를 실현하게 되어 매우 기쁩니다. 우리의 긴밀한 협업은 여러분이 Vertex AI Model Garden, Google Kubernetes Engine, Cloud Run 또는 Hugging Face Inference Endpoints를 사용하는 것과 관계없이 이 비전을 가속화할 것입니다.

Google과의 파트너십을 통해 저희가 만들어주길 원하거나 개선해주길 바라는 점이 있나요? 댓글로 알려주세요!

AI 자동 생성 콘텐츠

본 콘텐츠는 Hugging Face Blog의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0