격동적인 IPO 이후 Nvidia의 경쟁사 Cerebras에 대해 알아야 할 사항
요약
Cerebras Systems가 대규모 IPO를 성공적으로 마치면서, AI 칩 시장의 경쟁 구도가 더욱 치열해지고 있음을 보여주었습니다. 이 회사는 Nvidia GPU와는 다른 접근 방식으로, 접시 크기의 거대한 칩을 통해 추론(Inference)에 최적화된 ASIC을 개발합니다. 현재 하이퍼스케일러들이 자체 ASIC을 제작하는 가운데, Cerebras는 클라우드 서비스 제공 및 맞춤형 ASIC 전문 기업들과 경쟁하며 시장의 주목을 받고 있습니다.
핵심 포인트
- Cerebras는 접시 크기의 거대한 칩을 사용하며, 이는 추론(Inference)에 최적화된 ASIC 기반 솔루션을 제공합니다.
- AI 트렌드가 대규모 학습(Training)에서 새로운 정보를 바탕으로 결정을 내리는 추론(Inference) 중심으로 변화하고 있습니다.
- Cerebras는 TSMC의 5나노미터 공정 노드를 사용하며, 경쟁사들은 자체 인하우스 ASIC을 제작하거나 Groq과 같은 전문 기업들과 경쟁합니다.
- 회사는 현재 클라우드 서비스 제공에 집중하고 있으며, Google, Microsoft 등 주요 클라우드 제공업체와 협력 및 경쟁 관계를 동시에 유지하고 있습니다.
목요일에 있었던 Cerebras Systems의 거대한 데뷔는 단순히 이 회사를 기술 업계 역사상 최대 규모의 IPO (Initial Public Offering, 기업공개) 중 하나로 올려놓은 것에 그치지 않았습니다. 이는 기술 거물들이 Nvidia가 제조하는 고가이며 품귀 현상을 빚는 GPU (Graphics Processing Units, 그래픽 처리 장치)의 대안을 찾기 위해 서두르는 가운데, AI (Artificial Intelligence, 인공지능)를 구동할 칩에 대한 멈출 수 없는 수요를 아주 명확하게 보여주는 신호였습니다.
Cerebras는 월스트리트에서의 첫 거래일을 시가총액 1,000억 달러 직전으로 마감하며, Facebook의 모기업인 Meta나 Alibaba와 같이 해당 수치를 상회하며 마감한 소수의 기업들과 어깨를 나란히 했습니다. 주가는 첫 전체 거래일이었던 금요일에 10% 하락하며 마감했습니다.
이 뜨거운 Nvidia의 경쟁사에 대해 알아야 할 사항은 다음과 같습니다.
Cerebras는 기존의 Nvidia GPU와는 다른 유형의 칩을 만들며, 그 크기는 접시만 합니다.
Cerebras의 CEO이자 공동 창립자인 Andrew Feldman은 목요일 CNBC의 Squawk Box에서 "우리는 반도체 산업에서 가장 큰 칩을 만듭니다"라고 말했습니다. "큰 칩은 더 적은 시간 안에 더 많은 정보를 처리하고 결과를 더 빠르게 전달합니다."
지금까지 Nvidia는 자사의 GPU가 범용 워크호스 (General-purpose workhorse) 역할을 하며 대규모 모델 학습에 필요한 병렬 연산에 탁월했기 때문에 AI 칩 경쟁에서 승리해 왔습니다. 하지만 우리는 이제 추론 (Inference)이 핵심인 에이전틱 AI (Agentic AI)의 시대에 도달했습니다. 학습 (Training)이 AI 모델이 대량의 데이터 패턴으로부터 배우도록 가르치는 것이라면, 추론 (Inference)은 AI가 새로운 정보를 바탕으로 결정을 내리는 데 사용됩니다.
추론은 Cerebras의 WSE-3와 같이 더 구체적인 작업에 맞춰 프로그래밍된 덜 강력한 칩에서도 일어날 수 있습니다. 이는 커스텀 ASIC (Custom ASICs, 주문형 반도체) — 애플리케이션 특화 집적 회로 (Application-specific integrated circuits)로 알려진 칩 범주에 속합니다. Google, Amazon, Meta, Microsoft와 같은 기업들이 자체적으로 ASIC을 제작함에 따라 이 분야는 점점 더 혼잡해지고 있습니다.
Cerebras는 WSE-3가 가장 큰 GPU보다 57배 더 크며, 트랜지스터 수는 50배 더 많다고 밝혔습니다.
가장 진보된 AI 칩은 현재 대만에서만 가능한 Taiwan Semiconductor Manufacturing (TSMC)의 2나노미터 (2-nanometer) 공정 노드를 사용하여 제작됩니다. Cerebras의 칩 또한 TSMC에서 제작되지만, 이보다 덜 진보된 5나노미터 (5-nanometer) 노드를 사용합니다.
2016년 실리콘밸리 (Silicon Valley)에서 설립된 Cerebras는 2024년에 처음으로 상장 신청을 했으나, 아랍에미리트 (United Arab Emirates)의 Microsoft 지원 AI 기업인 G42라는 단일 고객에 과도하게 의존한다는 조사에 직면하자 해당 신청을 철회했습니다.
목요일에 진행된 회사의 성공적인 IPO (Initial Public Offering, 기업공개)를 통해, 공동 창립자 중 두 명인 Feldman과 하드웨어 기술 책임자 Sean Lie는 보유 지분을 바탕으로 억만장자가 되었습니다.
수년 동안 Cerebras는 기업들에게 칩을 판매하고자 노력해 왔으나, 현재는 주로 자사의 데이터 센터 (data center) 내부에서 칩을 클라우드 서비스 (cloud service)로 운영하고 있으며, 이로 인해 Google, Microsoft, Oracle, CoreWeave와 같은 클라우드 제공업체들과 경쟁하고 있습니다.
Cerebras와 OpenAI는 지난 1월 2028년에 만료되는 200억 달러 규모의 클라우드 계약을 발표했으며, Amazon Web Services는 지난 3월 자사의 데이터 센터에서 Cerebras 칩을 사용하고 있다고 발표했습니다.
Cerebras의 CFO (최고재무책임자) Bob Komin은 목요일 CNBC와의 인터뷰에서 "우리의 빠른 추론 (inference) 제품에 대한 수요가 너무 많아서, 우리의 가장 큰 과제는 실제로 이를 공급하는 것입니다. 우리는 가능한 한 많은 제조 및 데이터 센터 용량을 추가하고 있으며, 여전히 2027년까지 물량이 매진된 상태입니다"라고 말했습니다.
하이퍼스케일러 (hyperscalers)들이 자체적인 인하우스 ASIC (Application-Specific Integrated Circuit, 주문형 반도체)을 제작하는 반면, Cerebras는 타사를 위해 ASIC을 제작하는 데 특화된 기업들과 더 밀접하게 경쟁합니다. 그중 대표적인 기업이 Groq입니다. Nvidia는 역대 최대 규모의 구매로 지난 12월 Groq의 기술에 200억 달러를 지불했으며, 이후 3월 GTC에서 맞춤형 Groq 언어 처리 장치 (Language Processing Units)를 발표했습니다.
SambaNova와 D-Matrix는 전례 없는 AI 칩 수요를 활용하려는 Cerebras의 또 다른 주목할 만한 경쟁사들입니다.
SambaNova는 Hugging Face와 Meta를 자사의 SN50 칩 고객으로 보유하고 있으며, Intel은 지난 2월 SambaNova의 3억 5천만 달러 규모 펀딩 라운드에 참여했습니다. Intel의 CEO Lip-Bu Tan은 2017년부터 SambaNova의 의장직을 맡아왔습니다.
Cerebras의 IPO는 Rebellions와 같이 상장을 준비 중인 다른 맞춤형 ASIC 스타트업들에게도 길을 열어주고 있습니다.
이 한국 칩 제조사는 IPO를 준비하며 지난 3월 Samsung 등으로부터 23억 4천만 달러의 기업 가치로 4억 달러를 조달했습니다.
AI 자동 생성 콘텐츠
본 콘텐츠는 CNBC Technology의 원문을 AI가 자동으로 요약·번역·분석한 것입니다. 원 저작권은 원저작자에게 있으며, 정확한 내용은 반드시 원문을 확인해 주세요.
원문 바로가기