본문으로 건너뛰기

© 2026 Molayo

Tom's HW헤드라인2026. 05. 05. 20:54

성적 급등하는 부품 가격으로 빅테크의 CAPEX 기록 $7250 억 — 마이크로소프트가 AI 예산 중 250 억을 메모리 칩 및 칩 비용

요약

구글, 아마존, 마이크로소프트 등 빅테크 기업들이 AI 인프라 구축을 위해 2026년 총 $7,250억 규모의 대규모 자본 지출(CAPEX)을 계획하며 전년 대비 급증세를 보였습니다. 이러한 CAPEX 증가의 주요 원인 중 하나는 메모리 칩 및 부품 가격의 가파른 상승세로, 마이크로소프트와 메타 등은 이 비용 인플레이션을 구체적인 금액으로 제시했습니다. 또한, 클라우드 시장에서는 구글이 강력한 계약 백로그를 바탕으로 자체 AI 칩 개발 전략을 통해 경쟁 우위를 확보하고 있는 모습도 확인되었습니다.

핵심 포인트

  • 빅테크 기업들의 CAPEX가 메모리 및 부품 가격 상승에 힘입어 전년 대비 급증하며, AI 인프라 구축이 막대한 자본 투자를 요구하고 있음을 보여줍니다.
  • 메모리 칩(DRAM/NAND)의 계약 가격은 분기별로 가파르게 상승할 것으로 예상되며, 이는 빅테크 기업들의 CAPEX 증가를 주도하는 핵심 요인입니다.
  • 구글은 자체 개발한 AI 칩과 기초 모델 전략을 통해 클라우드 시장에서 강력한 성장세를 보이며 경쟁사 대비 비용 및 연구상의 이점을 확보하고 있습니다.
  • AI 인프라 구축의 병목 현상으로는 메모리 비용 외에도 전력 공급(전력 변압기 납품 지연)과 숙련된 노동자 부족 등이 심각하게 제기되고 있습니다.

Financial Times 의 1 분기 실적 보고서에 따르면, 구글 (Google), 아마존 (Amazon), 마이크로소프트 (Microsoft), 메타 (Meta) 는 2026 년에 총 $7250 억의 자본 지출 (capital expenditure) 을 계획하고 있으며, 이는 전년 기록인 $4100 억 대비 77% 증가입니다.

구글은 클라우드 수익 성장률 63% 와 순이익 $626 억으로 81% 급증하며 선두를 차지했으며, 메타는 새로운 AI 모델 출시 일정 제시 없이 지출 예감에 $100 억 추가할 경우 투자자들의 비난을 받아 야후 (Yahoo) 는 후속 조치 없이 주가 6% 하락했습니다.

하지만 실적 발표 회의에서 적어도 네 회사 중 두 회사는 예산 증가를 메모리 칩 가격 상승으로 귀인하며, 시장 데이터 및 업계 임원들이 몇 달 동안 경고한 내용을 확인했습니다.

CAPEX 내부의 메모리 비용

마이크로소프트의 CFO, 아미 후드 (Amy Hood) 는 투자자들에게 메모리 칩 및 기타 부품의 가격 상승이 회사의 기록적인 CAPEX 예산 중 $250 억을 차지했다고 밝혔습니다. 마이크로소프트는 2026 년 지출을 $1900 억으로 설정했으며, 이는 분석가들의 평균 예감인 $1520 억보다 훨씬 높습니다. 후드는 추가 투자에도 불구하고 마이크로소프트가 적어도 2026 년까지 GPU, CPU 및 스토리지에서 용량 부족 (capacity-constrained) 을 예상한다고 경고했습니다.

메타는 동일한 이유로, 회사의 연간 CAPEX 범위를 $135 억에서 $145 억으로 상향 조정했으며, 이는 이전 천장인 $1250 억보다 높습니다. 메타의 실적 발표에서는 "올해 특히 메모리 부품 가격 상승"과 데이터 센터 건설에 필요한 토지, 전력 및 숙련된 노동자 비용 증가를 함께 언급하며, 현재 세계 메모리 출력의 70% 를 소비하는 데이터 센터를 구축하기 위한 비용을 귀인했습니다.

이 모든 시기는 우연이 아니며, TrendForce 는 2026 년 1 분기 DRAM 계약 가격이 분기별 약 95% 상승했다고 보고했으며, 2 분기에 추가 5863% 증가가 예상됩니다. NAND 는 유사한 경로를 따르며, 2 분기 계약 가격은 7075% 상승할 것으로 예상됩니다. 서버 DRAM 및 고밀도 DDR5 RDIMMs 은 생산 용량의 대부분을 흡수했으며, Phison CEO Khein-Seng Pua 의 말에 따르면 2026 년 모든 NAND 출력은 이미 약속되었습니다.

후드의 $250 억은 이전에 추상적인 우려가었던 것을 달러 가치로 도출하는 데 도움이 됩니다. 만약 한 회사의 메모리 비용 인플레이션이 반도체 기업의 연간 CAPEX 전체를 초과한다면, 소비자 DRAM 및 NAND 공급에 대한 압력을 훨씬 쉽게 정량화할 수 있습니다.

구글 클라우드의 계약 백로그

메타와 마이크로소프트를 제외한 구글은 같은 분기에 클라우드 수익 $200 억을 기록하며 전년 대비 63% 성장했으며, 아마존 웹 서비스 ($376 억, $83 억 증가) 와 마이크로소프트 Azure 기반 클라우드 섹션 ($347 억, $79 억 증가) 을 앞섰습니다.

구글의 클라우드 계약 백로그는 $460 억으로 전년 말인 2025 년 4 분기 보고된 $240 억의 약 두 배에 달했습니다. 아마존은 최근 10 년 동안 안트립 (Anthropic) 과 $100 억 컴퓨팅 계약을 체결한 후 더 확장될 예정인 자체 파이프라인 $364 억을 발표했으며, 마이크로소프트는 연간 전년 대비 110% 증가한 $625 억의 상업적 잔여 성과 의무를 기록했습니다.

클라우드 사장 토머스 쿠리안 (Thomas Kurian) 은 구글의 성장은 자체 개발된 AI 칩, foundation models(기초 모델), 및 제품을 구축하는 전략에 기인했다고 말하며, Financial Times 에 따르면 이는 자체 칩과 frontier models(최전선 모델) 개발에 어려움을 겪은 경쟁사 대비 비용 및 연구상의 이점을 제공한다고 밝혔다. 구글의 7 세대 Ironwood TPU 는 각 칩당 HBM3E 192 GB 와 최대 9,216 개의 칩으로 구성된 pod 에서 7.37 TB/s 의 대역폭을 갖추고 있으며, 해당 전략의 핵심이며 Anthropic 은 최대 100 만 개에 대한 접근을 약속했다. 구글은 최근 훈련 및 추론용으로 구분된 두 가지 변형으로 나뉜 8 세대 TPUs 를 공개했다.

Alphabet 은 이전 가이드라인인 $175 billion 에서 $5 billion 증가하여 $180 billion ~ $190 billion 사이의 capex(자본 지출) 가이드를 상향 조정했다. CFO Anat Ashkenazi 는 2027 년에 capex 가

전력 인프라는 또 다른 병목 현상으로, 대형 전력 변압기의 납품 기간은 약 128 주에 달하며, IEA 는 계획된 전 세계 데이터 센터 프로젝트 중 약 20% 가 그리드 관련 지연으로 위험에 처할 것으로 추정했습니다. TrendForce 는 최근 전력 관리 IC 와 베이스보드 관리 컨트롤러가 완제품 서버 조립에 필요한 납품 기간이 35~40 주로 늘어나면서 연간 서버 수량 성장률 예치를 20% 에서 13% 로 하향 조정했습니다. 삼성의 한국 S7 8 인치 웨이퍼 팩 공장 폐쇄 계획은 PMIC 공급을 더욱 긴축시킬 것입니다.

'곰 이론 (Bear Thesis) 은 쓰레기다'

메타는 실적 발표 후 야간 거래에서 주가가 6% 하락하여 시장 가치 약 1,130 억 달러를 상실했습니다. 이 하락은 1,000 억 달러의 CAPEX 증가와 CEO 마크 저커버그가 최근 출시된 Muse Spark 를 따라 개선된 AI 모델을 출시할 구체적인 일정을 제시하지 못한 것에 반사되었습니다. SLC Management 의 디렉터인 데크 말러키 (Dec Mullarkey) 는 FT 에게 메타의 역사적으로 자본 경량 비즈니스가 훨씬 더 자본 집약적인 것으로 변하고 있는지 투자자들이 우려한다고 말했습니다.

"곰 이론 (Bear Thesis) 은 쓰레기다"라고 제퍼리스 (Jefferies) 의 분석가 브렌트 틸 (Brent Thill) 이 반박하며, 해당 산업 전반의 수익성 성장에 지출이 정당화된다고 주장했습니다. 저커버그는 논쟁을 해결하기 위해 거의 아무것도 제시하지 않았습니다. 메타의 AI 에이전트 개발에 대해 질문했을 때 그는 투자자들에게 마감일보다 품질을 더 중요하게 생각한다고 말하며, 오늘날 대부분의 AI 에이전트는 일반 사용자에게는 충분하지 않다고 덧붙였습니다.

아마존은 2000 억 달러 CAPEX 계획을 변경하지 않았고, 마이크로소프트 CEO 사티야 나델라 (Satya Nadella) 는 오픈 AI 와의 독점 계약 종료에 이점이 있다고 말하며, 2032 년까지 오픈 AI 의 프론티어 모델과 IP 에 대한 로열티 프리 접근을 주장했습니다.

루크 제임스는 프리랜서 작가이자 저널리스트입니다. 그의 배경은 법률 분야이지만, 기술 전반에 개인적인 관심을 가지고 있으며 특히 하드웨어와 마이크로전자기 및 규제 관련 사항에 관심이 있습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 Tom's Hardware의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
2

댓글

0