AI 클라우드 강자 코어위브, 2분기 매출 예상치 상회… 견조한 GPU 수요 입증

코어위브(CoreWeave)가 2025년 2분기 실적에서 월가 예상치를 상회하며 AI 인프라 시장의 견조한 성장세를 재확인했다. 회사는 NVIDIA가 전략적으로 지원하는 AI 전문 클라우드 기업으로, 특히 대규모 AI 모델 훈련·추론에 특화된 GPU 기반 서비스를 제공한다.

2025년 8월 12일, 로이터 통신 보도에 따르면 코어위브의 2분기 매출은 12억 1,000만 달러를 기록해 LSEG 집계 애널리스트 컨센서스(10억 8,000만 달러)를 약 12% 웃돌았다.

매출잔고(Revenue Backlog)는 6월 30일 기준 301억 달러에 달했다. 이는 이미 체결된 장기 고객 계약 물량을 의미하는데, 회사는 이를 통해 향후 현금흐름과 수익 가시성을 확보했다고 설명했다.


코어위브의 사업 모델33곳의 AI 전용 데이터센터(미국·유럽)를 통해 고객이 필요로 하는 GPU 자원을 온디맨드(수요 기반)로 제공하는 구조다. 일반적인 CPU 데이터센터와 달리, GPU는 동시에 수천 개의 연산을 병렬 처리할 수 있어 이미지·음성·언어 모델 학습에 필수다. 특히엔비디아의 최신 H100·A100 GPU는 메모리 대역폭과 에너지 효율이 뛰어나, AI 스타트업뿐 아니라 대형 테크기업이 앞다퉈 수급 경쟁을 벌이고 있다.

업계 전문가들은

GPU 공급난 속에서 GPU 전용 클라우드를 제공하는 코어위브 같은 기업이 생태계 ‘조정자’ 역할을 한다”

고 평가한다. 고객사는 자체적으로 수억 달러 규모의 GPU 구매·데이터센터 구축을 감수하는 대신, 필요할 때마다 코어위브의 클러스터를 빌려 쓰는 ‘GPU as a Service’ 방식으로 총비용(TCO)을 절감할 수 있다.

실적 세부사항(표기는 원문 데이터 기준)
• 2분기 매출: 12.1억 달러 (YoY 증감률은 비공개)
• 애널리스트 컨센서스: 10.8억 달러
• 매출잔고: 301억 달러
• 운영 데이터센터: 33개(미·유럽)

GPU 수요는 향후에도 탄탄할 전망이다. 대형 언어모델(LLM)을 포함한 생성형 AI 서비스는 매 학습 단계마다 막대한 연산 능력을 요구한다. 예컨대 GPT-4급 모델 학습에는 수만 장 이상의 고성능 GPU와 수 주~수 개월의 시간이 필요하다. 이러한 상황에서, ‘GPU 리스·호스팅’ 비즈니스는 장기간 구조적 수혜가 가능하다는 분석이다.

GPU와 CPU의 차이를 이해할 필요가 있다. CPU(중앙처리장치)는 복잡한 직렬 연산에 최적화된 반면, GPU(그래픽처리장치)는 수천 개의 코어로 병렬 연산을 동시에 수행한다. AI 학습은 대량의 행렬 계산(곱셈·덧셈)이 반복되므로, GPU가 훨씬 빠른 처리 속도와 전력 효율을 제공한다.

코어위브는 “우리는 GPU 인프라에 100% 집중해 경쟁력을 극대화한다”고 밝혔으며, 이미 다수의 AI 스타트업과 연구기관, 게임·미디어 기업이 고객사로 이름을 올렸다. 다만 경쟁도 거세다. 마이크로소프트 애저, 구글 클라우드, 아마존 AWS 역시 자체 GPU 클러스터를 확장하고 있으며, 오라클·람다랩스 등도 시장 공략에 나서고 있다.

전문가 시각에서는, 엔비디아가 코어위브에 지분 및 공급망 측면에서 지원하는 점이 최대 강점으로 꼽힌다. 지난해 말 엔비디아는 코어위브에 전략적 투자를 단행하며 수백만 장 규모의 GPU 장기 공급 계약을 체결했다. 덕분에 코어위브는 GPU 부족 현상이 심화될 때도 안정적으로 칩을 조달할 수 있었다.

그러나 높은 자본 집약도와 전력·냉각 비용 증가는 부담 요인이다. AI 데이터센터는 고밀도 GPU(열 발생량이 크다)를 운용하기 위해 첨단 액체냉각 시스템과 친환경 전력 사용 비율을 끌어올려야 한다. 일부 애널리스트는 “전기요금과 설비 투자(CapEx)가 증가하면, 장기적으로 수익성 압박이 예상된다”고 경고했다.

결론적으로, 이번 실적은 AI 클라우드 인프라에 대한 시장 수요가 여전히 탄탄함을 방증한다. 코어위브가 확보한 301억 달러 규모의 매출잔고는 향후 수년간 실적 가시성을 높여줄 전망이다. 동시에, GPU 공급망을 둘러싼 경쟁·비용 구조 관리가 향후 기업 가치 평가의 핵심 변수가 될 것으로 보인다.