본문으로 건너뛰기

© 2026 Molayo

TNP헤드라인2026. 05. 07. 11:03

컴퓨트 엔진을 만들 수 있다면 컴퓨트 엔진을 팔 수 있다

요약

본 기사는 컴퓨팅 시장의 미래가 전통적인 서버 CPU와 GPU 중심에서 에이전트 AI 작업에 최적화된 새로운 '일반 목적 컴퓨팅(general purpose compute)'으로 이동하고 있음을 강조합니다. AMD CEO 리사 수(Lisa Su)는 데이터센터 CPU 총 시장 규모(TAM)가 2030년까지 연평균 18% 성장하여 600억 달러에 이를 것으로 예측했으며, 이는 기존의 서버 시스템과는 다른 추세입니다. 특히 에이전트 AI 작업은 많은 추가적인 CPU 작업을 생성하며, 이로 인해 과거 GPU 대비 CPU 비율(예: 1:4 또는 1:8)이 점차 1:1에 가까워지는 변화가 예상됩니다.

핵심 포인트

  • AI 에이전트의 부상으로 컴퓨팅 수요가 재편되고 있으며, 이는 전통적인 서버 시스템과 구별되는 새로운 '일반 목적 컴퓨팅' 시대를 열고 있습니다.
  • AMD는 데이터센터 CPU TAM이 2030년까지 연평균 18% 성장하여 600억 달러에 이를 것으로 예측하며 시장의 폭발적 성장을 전망했습니다.
  • AI 에이전트가 작업을 수행하는 과정에서 많은 추가적인 CPU 작업이 발생하게 되어, GPU 대비 CPU 비율이 과거의 높은 불균형(예: 1:4)에서 1:1에 가까워지는 추세로 변화할 것입니다.
  • 미래의 서버 CPU는 특정 비용 최적화와 에이전트 워크플로우에 적합하도록 설계되어야 하며, 이는 새로운 세대의 전문화된 아키텍처(예: Verano variations)를 요구합니다.

컴퓨트 엔진을 만들 수 있다면 컴퓨트 엔진을 팔 수 있다

제목이 모든 것을 말해줍니다. 하지만 오해하지 마세요: CPU, GPU, XPU 시장과 그들이 의존하는 DRAM, HBM, 플래시 메모리 시장은 수요가 공급을 초과하고 있음에도 불구하고 여전히 경쟁이 치열합니다. 경쟁은 이제 항상 그랬던 것처럼 액세스뿐만 아니라 Feeds(제공), 속도 및 가격에 집중하고 있습니다.

그리고 CPU를 위한 새로운 시장이 등장하고 있으며, 이는 에이전트 AI의 특정 컴퓨팅 요구 사항으로 인해 향후 몇 년 이내에 서버 설치 기기의 대부분을 지배할 것입니다. 물론 매우 비싼 GPU 를 탑재한 AI 훈련 시스템만큼 수익의 대부분을 차지하지는 않습니다.

AMD 의 최상위 관리진이 지난 주 Intel 이 여러 차례 언급한 내용과 거의 동일한 의견을 내었습니다. CPU 지출에 대한 부활은 확실히 있습니다만, 에이전트 AI 덕분에 지각적인 변화가 진행 중입니다.

이것은 새로운 추세의 시작이며, 따라서 그 윤곽은 다소 모호합니다. AMD 의 리사 스 (Lisa Su) CEO 는 2025 년 11 월 초의 금융 분석가 데이에서 토대를 마련하고 데이터센터 CPU 의 총 접근 가능 시장 (TAM) 이 연평균 성장률 (CAGR) 로 18% 성장하여 2030 년에 600 억 달러에 도달할 것이라고 예측했습니다. 이는 데이터센터에 많은 서버 CPU 입니다. 이는 2015 년 Intel 이 운송량의 거의 99% 를 차지했을 때, 대부분의 RISC/Unix 와 Itanium 대안들이 사망하거나 죽어가고 있었고 Arm 서버 CPU 가 4 년 동안 진지하게 시도했지만 거의 제로 트래픽을 기록했을 때 약 130 억 달러에서 140 억 달러의 서버 CPU 실리콘 TAM 과 비교됩니다.

600 억 달러가 많은 금액처럼 들리지만, 1200 억 달러는 어떨까요? 이는 Su & Co 가 yesterday(어제) Wall Street 분석가들과의 회의 통화를 통해 2026 년 1 분기 재무제표를 논의하며 놓아둔 새로운 서버 CPU TAM 입니다. 곧 이것에 대해 다룰 것입니다. 따라서 지난 해와 2030 년 사이의 서버 CPU CAGR 는 35%이며, AMD, Intel, Nvidia, Arm 및 자체 CPU 그룹이 추격할 대부분의 추가적인 비용은 에이전트 AI 시스템에 할당될 것입니다. 이는 수十年前부터 서버 시장의 기반이 된 전통적인 기록 시스템 (system of record) 과 참여 시스템 (system of engagement) 과는 구별됩니다. Su 는 이를 일반 목적 컴퓨팅 (general purpose compute) 이라고 불렀으며, 그녀는 CPU 가 헤드 노드에 있는 GenAI 훈련 및 추론의 상대적으로 얇은 부분을 서버 CPU TAM 의 두 번째 부분으로 지칭했습니다. 파이의 세 번째 조각 – 이는 지수적으로 성장하는 것으로 나타남 – "그것들은 에이전트 AI 작업에 모두 위한 CPU"입니다, 그녀가 말했습니다.

여기서 Su 는 다음과 같이 더 자세히 설명했습니다:

"따라서 여러분은 이러한 기본 모델을 실행하기 위해 모든 가속기를 필요로 한다고 생각해야 합니다. 그리고 이러한 에이전트가 작업을 수행할 때, 그들은 더 많은 CPU 작업을 생성합니다. 저는 이것이 대부분 추가적이라고 말하고 싶습니다. 중요한 것은 – 우리가 이러한 배포에서 보는 바와 같이 – CPU 와 GPU 의 비율이 올바른 비율이어야 한다는 것입니다. 따라서 1GW 의 컴퓨트를 설치하는 경우, 그 GW 의 퍼센트 중 CPU 가 차지할 비율은 증가할 것입니다."

"산업계에서 CPU 와 GPU 비율에 관한 논의가 있었습니다. 정확히 말하기는 어렵지만, 과거에는 CPU 와 GPU 비율이 주로 호스트 노드인 1:4 또는 1:8 구성으로 이루어져 있었으며, 이제 변화하고 있으며 1:1 구성에 더 가까워지고 있습니다. 또한 많은 에이전트를 사용한다면 CPU 보다 GPU 를 더 많이 가질 수도 있습니다. 하지만 전체적으로 TAM(총 시장 규모) 에는 추가적인 영향을 미친다고 생각합니다. 핵심은 이제 가속기 배포를 계획할 때 CPU 도 함께 계획하고 있다는 점입니다. 이는 좋은 일이죠.

물론 소켓을 세울 때는 소켓에 넣는 것과 그 크기를 고려해야 합니다. 명백히 Nvidia 가 짝지어 놓은 "Hopper" CPU 에서는 72 코어 "Grace" CPU 가 조금 많았습니다. 다음 세대인 "Blackwell" CPU 의 경우, 하나의 CPU 에 두 개의 GPU 가 연결되어 있었기 때문입니다. 실제로는 소켓당 두 개의 Blackwell GPU 칩릿이 있어 비율은 1:4 였습니다. 우리가 아는 바에 따르면 Nvidia 는 이번 년말까지 "Vera" CPU 를 하나와 "Rubin" GPU 쌍을 각각 1:4 비율로 (총 4 개의 GPU 칩릿) 연결할 예정이며, 2027 년 Rubin Ultra 소켓에서 GPU 칩릿을 두 배로 늘려 1:8 비율을 달성할 예정입니다. Vera CPU 에 컴퓨팅 타일이 8 개라면, 아마도 비율은 1:1 이라고 말할 수 있을 것입니다.

이것을 세우는 것은 Su 가 말했듯이 어렵습니다. 그리고 CPU 은행들이 혼합된 전문가 GenAI 플랫폼에서 더 작은 모델에 추론 (inference) 을 수행하기 시작하면 더욱 어려울 것입니다. 규칙은 간단합니다: 항상 올바른 답변을 얻고 허용 가능한 정확도를 유지하는 가장 작은 모델을 사용하세요. 그리고 이는 우리가 오랫동안 주장해 온 것이成真할 것입니다: 많은 AI 추론 작업이 CPU 로 이루어질 것입니다.

그것은 Intel, AMD, Arm 의 특수 비용 최적화 CPU 가 등장한다는 것을 의미하며, 이들은 에이전트 워크플로우에 적합하고 GPU 와 XPU 노드 내부의 호스트 CPU 작업과도 다르게 설계됩니다. 이것이 바로 "Verano" variations 의 "Venice" Epyc 9006 테마가 되는 것 같습니다. Verano 는 2027 년에 나올 것으로 예상되며, 아마도 늦은 2027 년 또는 초기 2028 년에 나올 것으로 예상되는 "Florence" Epyc 9007 프로세서보다 훨씬 앞선 것으로 보입니다. 그리고 다음 세대 MI500 시리즈 GPU 와 Helios 랭크의 핵심 요소로 Venus CPU 와 MI400 GPU 를 함께 사용할 예정입니다. Venice CPU 는 이번 년말에 출시될 예정입니다.

"Turin 포트폴리오를 들어가는 동안 우리는 상당한 점유율 증가를 느끼고 있습니다. Venice 는 매우 잘 위치해 있으며, 우리는 현재 고객들과 함께 Venice 와 그 이상의 아키텍처에서 무엇을 하는지 작업하고 있습니다. 따라서 시장과 50% 이상의 시장 점유율을 성장할 기회를 가지고 있다는 점에 대해 정말 만족스럽습니다.

이제 Intel 의 CEO 인 Lip-Bu Tan 의 발 아래에 가운트를 놓았습니다.

어쨌든, 에이전트 AI 서버 CPU 붐은 이제 막 시작되어 materialize 되고 있으며, 이는 2026 년 Q1 의 인상적인 Epyc CPU 매출을 주도하지 않았습니다. AMD 붐을 주도한 것은 공급 부족과 수요 과잉이었습니다. 우리가 오랫동안 주장해 온 바와 같이, 기업들은 전력, 공간, 비용을 절약하여 AI 투자에 투자할 수 있도록 일반 목적용 기기를 업그레이드하고 오래된 장비를 통합해야 합니다. 그리고 어떤 기업들이 이를 하고 있습니다."

공급을 초과하는 수요가 있지만 인텔과 AMD 모두 공급량을 늘리고 있어 매출이 상승하고 있습니다. 수요가 여전히 공급보다 많다는 것은 가격에 해가 되지 않으며, 두 회사도 판매할 수 있는 칩만큼 더 많은 칩을 만드는 데 어떤 동기도 없습니다. 서브스트레이트와 기타 구성 요소도 부족하여, 더 높은 가격을 책정하고 이익을 늘리는 것이 좋습니다. 이는 CPU 및 GPU 제조사가 정확히 하고 있는 것입니다. 그들은 현재 세대 제품을 많이 판매하고 있으며, 높은 수요로 인해 더 저렴하게 생산할 수 있고 현재는 더 수익성이 있어도 이전 세대 제품을 판매할 수 있습니다.

3 월 분기에서 AMD 는 연도 대비 37.8% 증가, 순차적으로 약간 감소한 총 102 억 5 천만 달러를 가져왔습니다. 가격 결정력을 통해 AMD 가 누리고 있는 운영 이익은 83.1% 증가하여 14 억 8 천만 달러가 되었으며, 순이익은 95.1% 증가하여 13 억 8 천만 달러가 되었습니다. 그러나 이는 수익의 13.5% 만으로, AMD 는 누군가를 착취하는 것이 아니라 오랫동안 deserved(당당히 받아야 하는) 프리미엄을 요구할 수 있는 것입니다.

또한 회사는 미래 서버 및 PC 아키텍처에 막대한 투자를 하고 있으며 이는 이익에도 영향을 미칩니다. 하지만 과거 인텔과 AMD 가 한 기술적 채무 구멍처럼 들어가는 것보다 더 좋습니다.

AMD 는 12 억 3 천 5 백만 달러의 현금과 동등한 자금을 가지고 분기를 종료했습니다, 이는 1 년 전보다 68.9% 증가했습니다. 이는 다음 주인 5 월 14 일에 상장하기 전에 Cerebras Systems 를 구매하기에 충분한 돈이 아닙니다.

AMD 의 데이터 센터 그룹은 서버 CPU, DPUs, 고급 FPGA, 그리고 곧 파트너들이 AI 시스템 (및 잠재적으로 HPC 응용 프로그램) 을 위해 Helios 더블 와이드 레이크를 만들기 위해 사용할 rack-scale 구성 요소를 판매하며, 매출은 57.2% 증가하여 57 억 8 천만 달러가 되었습니다. 운영 이익은 71.6% 증가하여 16 억 달러가 되었으며, 이는 매출의 27.7% 를 차지했습니다. AMD 는 현재 평균 수준입니다.

클라이언트 그룹은 PC 를 위한 칩을 판매하며, 매출은 29 억 달러로 연도 대비 25.8% 증가했으며, 게이밍 그룹은 게이머와 때로는 저비용 HPC 및 AI 작업을 시도하는 사람들을 위해 고사급 그래픽 카드를 판매하며, 매출은 7 억 2 천만 달러였습니다. AMD 는 클라이언트 및 게이밍 그룹의 운영 이익을 결합하고 있으며, 이는 무엇을 가리키고 있는지를 숨기기 위한 것입니다. 그리고 그것은 PC 칩 비즈니스는 그렇게 수익성이 없으며 우리가 추정하는 4 억 3 천만 달러로 매출의 14% 를 차지한다는 것입니다. 게이밍 그룹은 훨씬 더 잘하며, 우리의 추정에 따르면 운영 이익이 1 억 7 천 3 백만 달러이며 매출의 24% 를 차지합니다.

그것은 FPGA 를 판매하는 임베디드 그룹을 남기고 있으며, 이는 매출이 8 억 7 천 3 백만 달러로 연도 대비 6.1% 증가했으며, 운영 이익이 3 억 3 천 8 백만 달러로 매출의 38.7% 를 차지했습니다. 맞습니다. FPGA 는 AMD 의 가장 수익성이 높은 부분으로 계속되어 있으며 - 그리고 부분적으로 인텔에 의해 FPGA 경쟁사 Altera 가 관리되지 못했기 때문입니다. (Altera 는 분리되었고 우리는 그것이 새로운 자유로 어떻게 하는지 다시 돌아와서 살펴봐야 합니다.)

데이터 센터 그룹은 AMD 에게 점점 더 중요해지고 있으며, 2026 년 Q1 의 매출의 56.3% 를 차지했습니다. 오직 3 년 전만 해도 데이터 센터 그룹은 AMD 의 전체 매출의 1/4 만을 차지했으며, 10 년 전에는 데이터 센터는 매출의 2.5% 만을 차지했습니다.

Lisa Su 는 AMD 를 고치고 데이터 센터에서 신뢰성을 부여할 것이라고 말했습니다, 그리고 그녀는 확실히 그렇게 했습니다.

이제 우리가 즐긴 스프레드시트 마법 (spreadsheet witchcraft) 이 돌아옵니다. 우리는 지난 분기 Instinct GPU 비즈니스가 AMD 역사상 처음으로 Epyc CPU 비즈니스보다 더 크다고 보고하며 매우 기뻤습니다. 그러나 CPU 붐과 세계적으로 HBM 메모리의 부족, 그리고 MI300 시리즈에서 MI400 시리즈로 제품 전환으로 인해 1 분기에 Instinct 라인이 Epyc 라인에 추격하지 못했습니다.

우리의 모델은 March 분기에서 Instinct GPU 비즈니스가 64% 성장하여 약 19 억 달러 (smidgen above $1.9 billion) 로 증가했다고 보지만, 이는 2025 년 Q4 데이터센터 GPU 판매 기록인 26.5 억 달러 (record $2.65 billion AMD racked up in datacenter GPU sales in Q4 2025) 대비 28.2%의 연차 감소입니다.

반면, Epyc CPU 는 우리의 모델에서 53% 성장하여 36.5 억 달러로 증가했으며, Su & Co 가 통화 (call) 에서 제시한 힌트에 따르면 하이퍼스케일러와 클라우드에 대한 판매가 CPU 파이의 76.2%를 차지한다고 생각하며 이는 27.8 억 달러이며, 기업, 통신사, 서비스 제공자, 학계 및 정부는 Epyc 판매에서 8.67 억 달러 (up 51.4 percent) 를 차지했습니다.

데이터센터 그룹의 나머지 Dough 는 데이터센터 네트워크 인터페이스 카드, DPUs, 그리고 데이터센터 클래스 Xilinx FPGAs 로 향했습니다.

마지막 주석: AI 가 진정될 때 – 이는 유머로 의도되었습니다 – 모든 에이전트 관리 CPU 기능은 결국 에이전트 라우터에 하드코딩될 수 있습니다. 실제로 이것이 네트워크 라우터에 일어난 것입니다. 원래는 고유한 미니컴퓨터에서 실행되는 소프트웨어였습니다.

AI 자동 생성 콘텐츠

본 콘텐츠는 The Next Platform의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.

원문 바로가기
1

댓글

0