엔비디아(티커: NVDA)가 자사 클라우드 컴퓨팅 서비스인 DGX Cloud 사업을 대폭 축소하고, 외부 고객 확보보다는 내부 연구 인프라로 활용 범위를 재편한다고 미국 테크 전문 매체 더 인포메이션(The Information)이 보도했다.
2025년 9월 12일, 인베스팅닷컴의 보도에 따르면, 이 같은 전략 전환은 엔비디아가 DGX Cloud를 통해 아마존웹서비스(AWS)와 같은 하이퍼스케일 클라우드 사업자와 직접 경쟁하겠다는 초기 구상을 사실상 접었다는 의미로 해석된다.
DGX Cloud는 엔비디아의 최신 H100 및 A100 GPU가 탑재된 서버(일명 ‘슈퍼컴퓨터 랙’)를 전용 데이터센터에 배치해 AI 모델 학습·추론 워크로드를 서비스형 인프라(IaaS) 형태로 제공하는 것이 핵심이다. 그러나 회사 내부 사정을 잘 아는 관계자에 따르면, 엔비디아는 이제 해당 서비스를 외부 기업이 아닌 자사 연구원들이 우선적으로 사용하도록 재배치할 계획이다.
현재 엔비디아 연구진은 DGX Cloud를 통해 신형 GPU 아키텍처 설계, 차세대 소프트웨어 프레임워크 개발, 초대규모(Foundation) AI 모델 학습 등 복합 작업을 수행하고 있다. 이는 곧 DGX Cloud가 엔비디아 내부 R&D 파이프라인의 핵심 자원으로 자리매김하고 있음을 보여준다.
“DGX Cloud의 전략적 축소는 서비스 수요가 초기 예상치를 밑돌았음을 방증한다”
고 소식통은 말했다. 실제로 엔비디아는 과거 DGX Cloud가 연간 최대 1,500억 달러(약 199조 원)의 매출을 창출할 수 있을 것으로 목표를 제시한 바 있다.
다만 엔비디아가 모든 신규 고객 유치를 중단한 것은 아니다. 최근 엔비디아가 전략적 지분을 투자한 샌드박스AQ(SandboxAQ)가 DGX Cloud를 활용해 양자 컴퓨팅 기반 AI 솔루션을 개발한다고 발표했다. 회사 측은 “특정 파트너나 생태계 기업에 한해 DGX Cloud 리소스를 계속 제공하겠다”는 입장이다.
DGX Cloud와 AWS의 차이점은?
DGX Cloud는 ‘GPU 최적화 슈퍼컴퓨팅 스택’에 초점을 맞춘 반면, AWS는 범용 클라우드 서비스로서 컴퓨트, 스토리지, 네트워킹, 데이터베이스 등 모든 구성 요소를 종합적으로 제공한다. 따라서 DGX Cloud는 특정 AI·HPC(고성능 컴퓨팅) 워크로드에 최적화돼 있고, 이미 GPU 인스턴스를 다수 보유한 퍼블릭 클라우드와의 차별화가 제한적이라는 지적을 받아 왔다.
전략 전환 배경: AI 칩 수요와 공급의 미스매치
글로벌 AI 붐으로 NVIDIA GPU 수요가 폭증하고 있지만, 공급망 제약과 칩 패키징 공정 한계로 인해 충분한 물량을 확보하지 못한 기업이 속출하고 있다. 이에 엔비디아는 자사 연구개발(R&D)에 우선순위를 둬야 한다는 결론에 도달한 것으로 풀이된다. 즉, 외부 고객에 GPU 클라우드를 임대하기보다는 내부 혁신을 가속화하는 편이 중·장기 수익성에 더 유리하다는 판단이다.
시장·투자자 관점: 리스크와 기회
이번 결정은 엔비디아의 클라우드 플랫폼 다변화 전략이 속도 조절 단계에 진입했음을 시사한다. 과거 AWS·MS 애저·구글 클라우드와 본격적으로 경쟁하겠다는 메시지는 투자자 기대를 키웠으나, 실제 수익화에는 시간이 더 필요했던 것으로 분석된다.
반면, DGX Cloud의 내부 집중은 차세대 GPU 로드맵을 앞당기고 자체 AI 슈퍼컴퓨터 구축 역량을 강화해, 결국 하드웨어 판매와 라이선스 사업에 긍정적 영향을 줄 가능성이 있다. 이는 장기적으로 엔비디아의 Gross Margin 및 Data Center 부문 매출을 개선할 여지를 남긴다.
전문가 의견
미국 반도체 애널리스트 리사 가토스는 “엔비디아가 클라우드 사업을 일부 축소했더라도, GPU·AI 솔루션 수직 통합 강점을 통해 여전히 막대한 이익을 창출할 것”이라며 “특히 자사 연구 역량 강화는 지속 가능한 기술 우위와 고부가가치 생태계 확보에 필수적”이라고 진단했다.
AI 생성 기사 논란 및 투명성
한편, 본 기사는 AI 시스템의 지원을 받아 작성되었으며, 최종 내용은 편집자의 검수를 거쳤다. 관련 세부 이용 약관(T&C)은 인베스팅닷컴 웹사이트에서 확인할 수 있다.