본문으로 건너뛰기

© 2026 Molayo

HuggingFace헤드라인2026. 05. 07. 01:15

전환되는 글로벌 컴퓨팅 지형에 대한 고찰

요약

미국의 수출 통제와 지정학적 긴장 속에서 글로벌 컴퓨팅 지형이 근본적으로 변화하고 있습니다. 중국은 이 제약을 촉매제로 삼아 Huawei Ascend, Cambricon 등 국내 칩을 활용하여 오픈 웨이트 AI 모델의 학습 및 추론 역량을 급속히 강화하고 있으며, 이는 미국 중심의 기존 생태계를 위협합니다. 이러한 전환은 단순히 하드웨어 대체에 그치지 않고, NVIDIA CUDA를 대체하는 새로운 소프트웨어 스택과 중국 주도의 독자적인 AI 생태계 구축을 가속화하며 글로벌 AI 개발의 패러다임을 재편하고 있습니다.

핵심 포인트

  • 미국의 수출 통제는 역설적으로 중국 기업들이 자체 칩(Ascend, Cambricon 등)과 소프트웨어 스택 혁신에 박차를 가하는 촉매제가 되었습니다.
  • 중국은 오픈 웨이트 모델(Qwen, DeepSeek 등)을 국내 칩으로 구동하며, 하드웨어와 소프트웨어가 결합된 자급자족적인 AI 생태계를 구축하고 있습니다.
  • NVIDIA 의 독점적 지위에 도전하는 새로운 소프트웨어 플랫폼들이 등장하며, 글로벌 AI 개발의 중심축이 미국에서 중국으로 이동할 가능성이 커지고 있습니다.
  • AI 칩과 희토류 자원에 대한 국가 안보 이슈가 심화되면서, 각국은 국내 생산 및 공급망 확보에 막대한 투자를 집중하고 있습니다.

AI 칩 사용의 기존 상태는 이제 거의 완전히 미국 기반이었던 것이 변하고 있습니다. 중국은 오픈 웨이트 AI 개발에서 막대한 진전을 이루었으며, 이에 따라 신속한 국내 AI 칩 개발을 추진하고 있습니다. 지난 몇 개월 동안, 중국에서는 고성능 오픈 웨이트 AI 모델의 추론 (inference) 이 Huawei 의 Ascend 와 Cambricon 과 같은 칩으로 시작되었으며, 일부 모델은 국내 칩을 사용하여 학습 (training) 을 시작했습니다.

정책 입안자와 AI 연구자/개발자에게 두 가지 큰 함의가 있습니다: 미국 수출 통제는 중국 칩 생산을 가속화하고, 중국의 칩 부족은 오픈 소스된 많은 혁신과 글로벌 AI 개발을 형성하는 것을 자극했을 가능성이 큽니다.

중국의 칩 개발은 미국의 강력한 수출 통제와 높은 상관관계를 가집니다. 칩 접근에 대한 불확실성 속에서 중국 기업들은 칩 생산과 모델의 컴퓨팅 효율성을 위한 알고리즘 진전 모두에서 혁신을 이루었습니다. 필연적으로 NVIDIA 에 대한 의존도가 감소하면서 Alibaba 를 포함한 국내 전체 스택 AI 배포가 이루어졌습니다.

컴퓨팅 제한은 아키텍처, 인프라 및 학습 측면에서의 진전을 자극했을 가능성이 큽니다. 오픈 웨이트 리더들의 컴퓨팅 효율성 혁신에는 DeepSeek 의 Multi-head Latent Attention (MLA) 과 Group Relative Policy Optimization (GRPO) 도입이 포함됩니다. 개방적인 문화는 지식 공유와 컴퓨팅 효율성 향상을 장려하여 추론 비용을 낮추고 AI 경제를 진화시켰습니다.

국내 실리콘의 입증된 충분성은 수요를 자극했으며, 모델들은 이제 국내 칩을 위해 최적화되기 시작했습니다. 병행하여 NVIDIA 의 CUDA 를 대체하는 소프트웨어 플랫폼이 등장하고 각 층에서 NVIDIA 를 도전을 제기하며 소프트웨어 생태계가 전환되고 있습니다. AI 개발자와 칩 벤더 간의 시너지는 새로운 빠르게 진화하는 소프트웨어 생태계를 창출하고 있습니다.

전환되는 글로벌 컴퓨팅 지형은 오픈 소스, 학습, 배포 및 전체 AI 생태계를 계속 형성할 것입니다.

고급 AI 칩의 유용성과 수요는 상승 추세를 따랐으며 계속 증가할 것으로 예상됩니다. 지난 몇 년 동안 모든 NVIDIA 칩이 우위를 점했습니다. 최근에는 새로운 플레이어들이 주목을 받고 있습니다. 중국은 장기적인 국내 생산 계획을 가지고 있으며 자급자족과 대규모 금전적 및 인프라 투자 계획이 있었습니다. 이제, 다음 세대 중국 오픈 웨이트 AI 모델들은 중국 칩으로 시작되어 구동 (powered) 되고 있습니다.

세계 전반의 더 넓은 경향들이 강화되고 있으며, 미국과 중국 모두 칩과 희토류 자원에 대한 국가 안보 이유로 제한을 지적하고 있습니다. 미국 수출 통제가 강화되면서 중국산 칩의 배포가 가속화되는 것처럼 보입니다. 중국의 국내 칩 산업의 상승은 글로벌 AI 학습 및 배포의 규범과 기대를 근본적으로 변화시키고 있으며, 더 많은 모델이 중국 하드웨어를 위해 최적화되고 컴퓨팅 효율성 오픈 웨이트 모델이 채택에 증가하고 있습니다. 지난 몇 개월 동안, 중국산 칩은 인기 있는 모델의 추론을 구동하기 시작했으며 학습 실행 (training runs) 을 구동하기 시작했습니다.

변화는 학습에 사용되는 기술부터 컴퓨팅 효율성과 특정 하드웨어를 위한 최적화, 낮은 추론 비용, 최근 오픈 소스 붐까지 모든 것에 영향을 미칠 수 있습니다. 이는 미국 중심의 글로벌 생태계에서 중국이 중심이 되는 미래를 가져올 수 있으며, 미국의 무역 정책과 중국의 글로벌 배포 접근 방식을 모두 변화시킬 수 있습니다.**

현대 AI 붐 이전에 중국 내 칩 생산은 이미 여러 년 동안 진행되어 왔습니다. 가장 주목할 만한 고급 칩 중 하나는 Huawei의 Ascend로, 초기에는 2018 년에 출시되었으나 2024 년부터 배포가 확대되었고 2025 년에도 점차 증가하고 있습니다. 다른 주목할 만한 칩은 Cambricon Technologies와 Baidu 의 Kunlun입니다.

2022 년, 바이든 행정부는 고급 AI 칩에 대한 수출 통제를 수립하여 중국이 고성능 GPU 에 대한 접근을 목표로 했습니다. 이 전략은 고성능 NVIDIA GPU 의 공급을 억제하고 중국의 AI 발전을 지연시키려는 것이었습니다. 그러나 막대한 blockade 가 시작되었던 것은 역설적으로 촉매제가 되었습니다. 벽을 짓려는 의도는 번창하는 산업의 기초를 마련했습니다.

중국 AI 연구소는 초기에 차단될 것에 대한 두려움으로 자극받았으며, 세계 수준의 오픈 웨이트 모델인 Qwen, DeepSeek, GLM, Kimi 와 함께 domestic chips 를 생산하여 해당 모델들의 훈련 및 추론을 점차적으로 구동하고 있습니다. 칩 제조사와 오픈 소스 간의 관계가 증가하고 있으며, 로컬에서 오픈 웨이트 모델을 실행할 수 있는 능력은 상호 이익적인 피드백으로 이어집니다. 이는 예를 들어 Ascend 최적화 모델을 더 많이 만드는 것을 이끌고 있습니다.

중국에서의 오픈 소스와 컴퓨팅 발전은 글로벌 경관을 변화시키고 있습니다. a16z 의 파트너인 Martin Casado 는 미국 스타트업의 상당 부분이 중국 오픈 웨이트 모델 위에 구축되고 있으며, 최근 분석에 따르면 중국 오픈 웨이트 모델이 LMArena 에서 인기가 가장 높다고 합니다.

규제로 인해 생성된 진공은 중국 내 전 과정적인 domestic effort 를 점화하여 일찍이 주변화된 현지 칩 제조사를 중요한 국가 자산으로 변화시키고 칩 제조사와 연구자 간의 협력을 촉진하여 viable non-NVIDIA ecosystem 을 구축하는 데 기여했습니다. 이것은 이제 가상의 시나리오가 아닙니다. Baidu 와 Ant Group 과 같은 거대 기업들이 domestic hardware 에서 foundation models 을 성공적으로 훈련함으로써, NVIDIA 의 가장 큰 장점인 개발자 중심 소프트웨어 생태계를 직접적으로 도전하는 병렬 AI 인프라가 빠르게 현실화되고 있습니다.

Appendix 를 참조하여 칩 통제와 하드웨어 개발 및 배포에 대한 자세한 타임라인을 확인하세요.

2022 년 금지 조치, ChatGPT 의 글로벌 충격파와 일치하며 중국의 기술 경관을 전 세계적으로 공포심을 유발했습니다. 풍부한 NVIDIA 컴퓨팅의 안전한 기본값은 사라졌습니다. NVIDIA 칩의 밀수 주장이 등장했습니다. 그러나 금지 조치는 연구 커뮤니티의 신뢰를 파괴했으며, 영구적으로 뒤처질 전망에 직면하여 필요성을 바탕으로 혁신을 시작했습니다. **생겨난 것은 새로운 실용주의 철학으로,

중국의 연구소들은 다른 길을 선택하여, 아키텍처 효율성과 오픈 협력에 집중했습니다. 오픈 소스는 과거에는 니치 (niche) 관심사였으나, 이제 새로운 표준이 되었고, 공유된 지식을 통해 진보를 빠르게 가속화하는 실용적인 선택지가 되었습니다. 이 패러다임은 조직들이 기존 고품질의 사전 학습 모델을 기반으로 포스트 트레닝 (post-training) 을 통해 전문화된 응용 프로그램을 구축할 수 있게 하여, 컴퓨팅 부하를 극적으로 줄였습니다. 대표적인 예로 DeepSeek R1 모델이 있으며, 이는 V3 아키텍처의 포스트 트레닝에 $300,000 미만만 소요되어, 복잡한 모델을 개발하는 기업들의 진입 장벽을 낮췄습니다. 추론 모델 (reasoning model) 의 경우 전체 기본 모델은 아니지만, 비용 절감 효과가 상당합니다. **Multi-head Latent Attention (MLA)**와 같은 메모리 효율성을 개선하는 알고리즘적 진보는 DeepSeek의 V3 모델과 함께, 2025 년 1 월의

on LMArena. GLM 의 API 가격 정책이 지속적으로 인하되어, Claude Code 대비 1/5 의 가격으로 $3/월 플랜을 제공하는 비용 효율성을 자랑합니다. 가격 결정에 대한 완전한 투명성은 명확하지 않지만, 효율성이 중요한 역할을 했을 가능성이 높습니다.**국내 칩으로 전량 훈련의 씨앗:**많은 upcoming 칩은 추론 (inference) 에 주로 설계되었지만, 더 많은 모델들은 국내 칩으로 훈련될 것을 암시하고 있습니다. Ant Group 은 NVIDIA, Ascend, Cambricon 칩의 복잡한 이종 클러스터에 Ling 모델을 훈련하는 것을 선구적으로 개척했습니다. Baidu 는 5,000 개 이상의 국내 Kunlun P800 가속기 클러스터에서 지속적인 사전 훈련 (pre-training) 을 수행하여 Qianfan VL모델을 출시했습니다.

혁신은 모델 가중치 (weights) 만이 아닌 소프트웨어 및 하드웨어 스택까지 깊게 파고들었습니다.**구조적 탐구:**근본적인 독립 연구원인 Peng Bo는 Transformer 의 후속으로 Linear Attention 을 지지해 왔습니다. 이 접근법은 RWKV 와 같은 모델에서 'RNN 의 복수 (revenge of the RNN)'라고 불리며, 중국 실험실들은 고위험·고보수 연구에 자발적으로 투자하여 MiniMax M1Qwen-Next와 같은 상용급 모델로 확장했습니다. 반면 DeepSeek 은 원래 Transformer 아키텍처를 기반으로 다른 길을 선택했습니다. 그들의 작업은 v3.2 모델과 함께 소개된 Multi-head Latent Attention (MLA) 과 DeepSeek Sparse Attention (DSA) 와 같은 혁신을 도입하여 추론 시 계산 비용을 크게 줄이면서도 성능을 희생하지 않으며, 더 빠른 롤아웃 (rollouts) 을 통해 강화 학습 (RL) 탐구를 가속화합니다. 고성능 전용 모델 아키텍처는 공개되지 않아 비교가 어렵습니다.**개방형 인프라:**기업의 비밀 유지에서 벗어나 실험실들은 가장 깊은 공학적 비밀을 공유했습니다. Kimi 팀의 Mooncake서빙 시스템 작업은 prefill/decoding 분산 (disaggregation) 을 공식화했습니다. StepFun 의 Step3 는 Attention-FFN Disaggregation (AFD) 으로 이를 개선했습니다. Baidu 는 Ernie 4훈련에서 공학적 과제를 극복하는 데 대한 상세 기술 보고서를 공개했으며, ByteDance 의 Volcengine 은 생산급 RL 훈련 도구를 커뮤니티에 제공하기 위한 verl 오픈소스 라이브러리를 기여했습니다.**의무 지식은 이제 커뮤니티 지식이 되어, 진보의 자기 반복적인 플라이휠을 추진합니다.**훈련의 돌파구:**DeepSeek 의 DeepSeekMath 논문은 Prior Policy Optimization (PPO) 대비 계산 비용을 크게 줄이면서 훈련 안정성과 더 높은 정확도를 유지하는 새로운 강화 학습 (RL) 방법론인 **Group Relative Policy Optimization (GRPO)**를 소개했습니다. GRPO 는 Meta 의 연구원들이 Code World Model 에서 구축한 DeepLearning.AI 수업에 포함되었으며, OpenAI 연구 책임자 Jerry Tworek 에 의해

AI 자동 생성 콘텐츠

본 콘텐츠는 Hugging Face Blog의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0