AWS 를 이끄 쌍 엔진 전략이 잘 작동하고 있다
요약
아마존은 AWS 클라우드와 자체 리테일/광고 비즈니스를 통합하는 '쌍 엔진 전략'을 통해 AI 시대를 선도하고 있으며, 이 과정에서 내부 효율성 극대화(직원 감축 및 로봇 도입)를 추구하고 있습니다. 특히 광고 사업 부문이 높은 운영 마진을 제공하여 막대한 AI 인프라 구축 비용을 지원하며 AWS 성장의 핵심 동력으로 작용할 것으로 분석됩니다. 아마존의 모든 자본 지출은 AI 인프라에 집중되고 있으며, 이는 AWS가 시장에서 AI 워크로드를 처리하는 데 필요한 수요 신호를 포착하고 이를 수익화하는 능력을 보여줍니다.
핵심 포인트
- 아마존은 AWS 클라우드와 자체 리테일/광고 비즈니스를 결합한 '쌍 엔진 전략'을 통해 AI 시장을 주도하고 있다.
- AI 도입에 따라 아마존은 내부 효율성을 극대화하기 위해 직원 감축과 로봇 자동화를 공격적으로 추진하고 있다.
- Amazon Ads는 높은 운영 마진을 바탕으로 막대한 AI 인프라 구축 비용을 지원하는 핵심 수익원이다.
- 아마존의 자본 지출(CapEx)은 전체적으로 급증하고 있으며, 그 대부분이 AI 인프라에 집중되고 있어 AWS 성장의 강력한 동력을 보여준다.
구글과 메타 플랫폼과 마찬가지로, 아마존은 온라인 리테일, 운송, 광고, 그리고 AWS 클라우드를 포함한 비즈니스 운영에 AI 를 어떻게 통합해야 하는지 정확히 알고 있습니다. 구글과 IBM이 AI 노력의 자체 '고객 제로 (Customer Zero)' 역할을 해 왔듯이, 아마존은 자신의 비즈니스 기능을 대체하거나 향상시키기 위해 AI 를 사용하는 법을 배우고 있으며, 이는 외부 고객에게 이러한 전문성을 판매하고 AWS 클라우드를 사용하게 만드는 것을 돕기 위한 것입니다.
따라서 아마존이 기업 직원의 6 만 명 이상을 해고했다는 것은 우연이 아님을 생각합니다. 일부 해고는 2020 년에 시작된 코로나바이러스 팬데믹 기간의 과잉 채용과 관련이 있습니다; 일부는 IBM 이 몇 년간 '근로자 재조정 (workforce rebalancing)'이라고 부른 것과 같습니다. 그러나 사실은 오늘보다 5 년 전에는 기업 직원이 더 많았으며, 또한 아마존에 약 120 만 명의 창고 직원이 추가되어 있습니다 (2021 년 수준에서 약 10 만 명 감소).
최근 기업의 해고와 생성형 AI (GenAI) 가 아마존 내부의 직원으로 부상하는 것 사이의 일대일 상관관계를 만드는 것은 쉽습니다 - 너무 쉽습니다. 세계 최대의 온라인 리테일러, 주요 광고 및 미디어 회사 중 하나이자 세계 최대의 클라우드 제공자는 자신의 조직 구조를 평평하게 만들고자 합니다 - 그리고 이미 그렇게 해야 했을 것입니다. 그러나 물리적인 아마존 창고의 로봇이 어떻게 움직이는지, AWS 데이터 센터의 AI 에이전트는 또한 어떻게 움직일 것입니다. 아마존은 2019 년에 약 20 만 개의 로봇이 종이 박스에 물건과 함께 이동하고 포장하는 것을 돕는 데 사용했으며, 지금은 100 만 개 이상이며 훨씬 더 높게 올라갈 가능성이 큽니다. 제프 베조스와 앤디 잭시가 창고의 모든 사람을 로봇으로 대체할 수 있다고 생각한다면, 그들은 그렇게 할 것입니다. 우리는 그것이 얼마나 실용적인지 알 수 없지만, 매년 시간이 지날수록 그 가능성이 높아진다는 것은 알고 있습니다.
기업 운영이 Amazon 비즈니스를 운영하는 것에 대해서는 이보다 어렵습니다. 사람들은 여전히 사람에서 물건을 구매합니다. 사람들은 여전히 전화통화를 합니다. 우리가 아는 평형점은 무엇인지 알 수 없으며, 많은 부분은 몇 년 후 AI 에이전트가 얼마나 좋은지에 달려 있습니다. 아마존이 내 고용을 원하는 Rufus 쇼핑 에이전트는 첫 단계일 뿐입니다. 돈이 너무 부족하다면, 사람들은 Rufus 를 사용하여 기회적 구매를 할 것입니다. 이익이 너무 어렵게 얻어지면, 아마존은 AI 에이전트를 사용하여 기회적 해고를 수행할 것입니다. 그것이 간단합니다.
미래를 모델링하는 것에 대해 우리가 확실히 아는 것은 Amazon 이 무엇을 하고 AWS 가 회사의 AI 기술 배포에서 어떻게 혜택을 받는지 관찰하고, 그 경험이 수백만 개의 다른 회사로 퍼져나갈지 보는 것이 중요하다는 것입니다. 또한 AWS 의 수백만 명의 고객이 AI 를 실험하는 경험은 아마존의 모함선 (mothership) 이 무엇을 하고 무엇을 하지 않는지에 영향을 미칩니다.
아마존에 대한 좋은 소식은 그것이 AWS 에서 AI 서비스를 구매할 수 있는 대규모 광고 비즈니스를 구축했다는 것입니다. 우리는 생각하듯이, 그것은 너무 널리 인기가 있고 수익성이 높아 올해와 그 이후로 베조스 & 코가 약속하는 거대한 자본 비용을 지불할 수 있습니다.
이 차트를 보십시오. 우리가 말하는 것을 보실 수 있습니다:
위 차트에서는我们认为的 AWS 핵심 시스템 비즈니스인 컴퓨팅, 네트워킹 및 스토리지의 수익을 Amazon Ads 비즈니스 (회사 사정 및 제 3 의 광고 시장 조사 기업 추정에 기반한 5 년 데이터) 와 비교합니다.
우리는 AWS 시스템 비즈니스를 플랫폼 서비스와 렌티드 소프트웨어 등 나머지 AWS 스택에서 분리하는 것이 의심스럽다고 완전히 인식하지만, 우리는 이 광고 비즈니스가 존재하기 훨씬 전에 이러한 추정치를 만들어 왔습니다. 이는 시간 축을 가로지르는 두 개의 다른 데이터셋입니다. 하지만 어떻게 얽히게 되었는지를 보세요. 그것은 인과관계가 아니라 확실한 상관관계입니다.
중요한 것은 Amazon Ads 가 AWS 핵심 하드웨어 비즈니스보다 훨씬 높은 운영 마진을 가지고 있으며 AI 구축 비용을 지원할 수 있다는 것입니다.
'우리는 아마존 전체에 걸쳐 약 2000 억 달러의 자본 지출을 투자할 것으로 예상하지만, 매우 높은 수요를 가진 고객들이 AWS 를 핵심 및 AI 워크로드에 정말로 원하기 때문에 주로 AWS 에 집중할 것입니다,' Wall Street 의 통화에서 Amazon 최고경영자 Jassy 는 설명했습니다. '우리는 설치 가능한 대로 최대한 빠르게 용량을 수익화하고 있습니다. 우리는 AWS 비즈니스의 수요 신호를 이해하고 투자 자본에 대한 강력한 수익을 창출하는 방식으로 그 용량을 전환하는 데 깊은 경험을 가지고 있습니다. 우리는 이것이 또한 여기에서도 이루어질 것이라 확신합니다.'
2025 년 4 분기에는 Amazon 이 자본 지출에 404 억 7 천만 달러를 썼으며, 이는 전년 대비 43.1% 증가했습니다. 그리고 2025 년 전체 기간 동안 Amazon 은 1347 억 3 천만 달러를 지출했으며, 이는 2024 년 인프라에 사용한 약 840 억 달러보다 60.5% 증가했습니다. 우리의 모델은 AWS 가 IT 인프라에 약 1150 억 달러를 썼으며, 이 중 약 1050 억 달러가 AI 인프라였음을 시사합니다. 따라서 AI 는 전체 자본 지출의 약 78% 를 차지했으며, 나머지 IT 는 약 7% 로, 나머지 14.5% 는 Amazon 의 소매 운영 네트워크용 창고 및 운송 장비에 사용되었습니다.
'우리는 정말로 선례 없는 성장 속도로 성장하고 있습니다,' Jassy 는 자본 지출 지출에 대해 말했습니다. '모든 공급 업체는 우리도 포함하여 더 빠르게 성장할 수 있다고 말해줄 것입니다. 우리가 모든 공급을 가져올 수 있다면 실제로 더 빠르게 성장할 수 있습니다. 따라서 우리는 그 부분에 매우 절약적인 방식으로 행동하고 있습니다.'
지난 12 개월 동안, Jassy 는 Amazon 이 데이터센터 용량을 39 기가와트 추가했다고 말했습니다. 이는 Anthropic 과 OpenAI 와 같은 대형 모델 빌더들이 기가와트당 450 억 달러에서 600 억 달러를 지출하는 것과 비교하여 매우 절약적인 295 억 달러/기가와트입니다. Jassy 는 Q4 에 12 기가와트를 추가했다고 말했으며, 더 나아가 2022 년에 AWS 가 연간 연동율 800 억 달러로 끝났을 때만 약 2 기가와트의 용량이 설치되었음을 말했습니다. 우리가 중간 연도를 모델링할 때, 이는 2025 년이 끝날 때 AWS 가 총 6 기가와트의 용량이 설치되어 있음을 의미하며, Jassy 는 과거 진술에서 2027 년에는 다시 두 배로 될 것이라고 말했으며, 이는 12 기가와트입니다. AWS 가 지불하는 현재 가격 (300 억 달러/기가와트라고 부르겠습니다) 이라면 6 기가와트를 추가하는 데는 1800 억 달러입니다. 따라서 Amazon 이 2026 년에 자본 지출에 지출할 2000 억 달러는 2027 년까지 설치되고 준비될 장비 (창고 및 운송 장비) 의 비용의 대부분을 커버할 것입니다.
If the spending is doubling, the compute capacity of the gear is also probably doubling to quadrupling, depending on the computing precision used, as AWS moves through the Nvidia roadmap and its own Trainium roadmap. Software improvements over the two years should yield somewhere between 3X and 4X more performance if history is any guide. So the amount of compute AWS will have for AI will be vastly more than the increase in spending alone indicates.
Which is, we think, the key driver of renewed revenue growth for AWS. As inference processing gets cheaper, the elasticity of demand will increase faster and burn a lot more compute, fueling another reinvestment cycle:
It remains to be seen if growth can go as high as 30 percent or 35 percent year on year – or even higher. A lot depends on how GenAI bots and agents are adopted by enterprises and how much they customize their training.
Some interesting tidbits: Jassy said on the call that the custom compute engines at AWS – the Graviton Arm server CPU and the Trainium1 and Trainium2 AI XPU engines – ended 2025 with a $10 billion annualized run rate. That means those instanced brought in $2.5 billion in rent, and this was driven in large part by the fleet of 1.4 million Tranium2 million chips. Trainium3 installations are ramping now and all of the Trainium3 capacity for the chips it will install will be allocated by the middle of 2026. Presumably these Trainium3 systems will be installed this year and next, and probably in the millions and maybe accounting for a very large share of the $200 billion in spending this year.
What that means, in our model, is that X86 CPUs and Nvidia and sometimes AMD GPUs accounted for around $12 billion in spending for instances on AWS in Q4 2025. Some years hence, Amazon will spend more money on Graviton and Trainium than it does on external chips – when it hard to say.
In Q4 2025, AWS brought in $35.58 billion, up 23.6 percent, and operating income was under pressure a bit from chip design and manufacturing costs and only rose by 17.2 percent to $12.47 billion.
For the full year, AWS had $128.73 billion in sales, up 19.7 percent, with operating income of $45.61 billion, up 14.5 percent.
Here is how we think the breakdown of compute, storage, networking, and software revenues has broken down at AWS over the years:
As we have pointed out in the past, Amazon has never, ever given any indication of how AWS revenues break down across the four buckets we have created in that chart above, and it has never called us up to confirm or deny our model. We do this merely because we need to separate these out to understand what drives the AWS business.
For many years, the hardware was the main driver, but as AWS started building a complete platform, with networking and data services as well as development tools and sometimes full-blow applications, software came to dominate the revenue stream. But with GenAI hardware costing do damned much, and having access to it is so dear that Nvidia and AMD can charge a lot for it and AWS can turn around and charge an even higher premium to rent it, the compute part of the revenue stream has been skyrocketing at AWS and, we think, now drives more revenue than the software stack does.
And, because AWS is smart with Trainium as it has been with Graviton with core compute, homegrown chips can undercut Nvidia and AMD capacity rentals and still probably run AWS an equal or better operating profit.
AWS 는 돈이 지속되는 한 여기에서 승승장구하는 상황에 있으며, GenAI 가 일반화되기 전까지는 컴퓨팅을 위한 쌍둥이 엔진 접근 방식을 채택하고 제 3 의 엔진 공급업체에 대한 압력을 유지할 수 있습니다. 장기적으로 AWS DPU, CPU, 그리고 GPU/XPU 컴퓨팅 파워의 대부분이 Annapurna Labs 의 디자이너들에서 나오지 않고도 외부에서 나올 것이라는 근거는 없습니다. 만약 AWS 클라우드에서 제 3 의 장비를 임대하고 싶다면, 그 프리미엄을 지불해야 합니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 The Next Platform의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기