오픈AI ‘스타게이트’, 목표한 10GW AI 컴퓨팅 용량 수년 앞당겨 달성

오픈AI(OpenAI)가 인공지능(AI) 컴퓨팅 인프라 확장 프로젝트인 스타게이트(Stargate)를 통해 미국 내 10기가와트(10GW) 규모의 AI 컴퓨팅 용량 확보 목표를 수년 앞당겨 달성했다고 2026년 4월 30일 발표했다. 이는 AI 인프라에 대한 수요가 급등하고 있음을 시사한다.

2026년 4월 30일, 인베스팅닷컴(Investing.com)의 보도에 따르면, 이 같은 이정표는 스타게이트 계획이 2029년까지 달성하겠다고 밝힌 목표를 앞당겨 완료한 것으로, 프로그램 출범 이후 불과 1년여 만에 도달했다. 회사는 최근 90일 동안에만 3GW가량의 용량을 추가했다고 밝혔다.

스타게이트는 총액 약 5천억 달러(약 $500 billion)에 달하는 장기 AI 인프라 프로젝트로 설명된다. 이 프로젝트는 대규모 데이터센터, 전력 공급망, 고성능 칩 등을 아우르며 고급 AI 모델 운용에 필요한 컴퓨팅 백본(backbone)을 구축하는 데 목적이 있다.

오픈AI는 Oracle(오라클), NVIDIA(엔비디아), Microsoft(마이크로소프트)를 비롯해 여러 유틸리티(전력회사)와 지방정부와의 협력으로 해당 인프라를 개발하고 있다고 밝혔다. 회사 측은 컴퓨팅 파워의 급속한 확장이 보다 진화된 AI 모델을 훈련하고 배포를 확대하며 기업·개발자·정부의 증가하는 수요를 충족하는 데 필수적이라고 설명했다.

오픈AI는 또한 추가 용량 확대를 위해 미국 전역의 데이터센터 부지를 추가로 검토하고 있다고 덧붙였다.

핵심 사실 요약: 오픈AI는 스타게이트를 통해 2026년 4월 기준 미국 내 AI 컴퓨팅 용량 10GW 목표를 조기에 달성했으며, 최근 90일 동안에만 3GW를 추가했다. 스타게이트는 약 $500 billion 규모의 프로젝트이며, 오라클·엔비디아·마이크로소프트 등과 협력 중이다.


용어 설명

기가와트(GW)는 전력의 단위로, 일반적으로 데이터센터의 총 전력 용량이나 구동 가능한 컴퓨팅 장비의 규모를 가늠하는 지표로 사용된다. AI 데이터센터에서 말하는 ‘용량’은 단순히 서버 대수뿐 아니라 전력 공급, 냉각 설비, 네트워크 대역폭 등 인프라 전체를 포괄하는 개념이다.

데이터센터는 대규모 컴퓨팅 장비(서버, 스토리지, 네트워크 장비)가 모여 있는 시설로, 대량의 전력 소모와 고도의 냉각시스템이 필요하다. AI 모델 학습을 위한 고성능 GPU(그래픽처리장치)나 기타 특수 칩을 배치해 대규모 연산을 수행한다.


시장 및 정책적 함의

이번 발표는 AI 수요 증가가 단기간 내에 인프라 확장으로 직결되고 있음을 보여준다. 10GW 달성은 전력 수요 측면에서 지역 전력망에 미치는 영향, 토지 이용과 환경 규제, 지역사회와의 협의 필요성을 동시에 불러일으킨다. 특히 최근 90일 간 3GW를 추가한 속도는 인프라 사업의 설치·운영·전력 조달 계획이 매우 빠르게 진행되고 있음을 의미한다.

경제적 관점에서 보면, 대규모 데이터센터 건설은 건설업체·전력업체·지역 서비스업에 단기적 고용·투자 효과를 가져올 가능성이 크다. 또한 하드웨어 측면에서는 엔비디아 등 고성능 칩 공급업체에 대한 수요가 지속적으로 확대될 전망이며, 클라우드·소프트웨어·AI 활용 서비스 제공업체들도 인프라 가용성에 따라 서비스 확장 속도를 높일 수 있다.

다만 재무적 지속가능성 측면에서는 주의가 필요하다. 최근 월스트리트저널(WSJ) 보도에 따르면 오픈AI는 내부 목표(수익 및 사용자 성장) 일부를 달성하지 못한 것으로 전해져, 무거운 컴퓨팅 인프라 지출을 장기간 유지할 수 있을지에 대한 의문이 제기되고 있다. 즉, 인프라 확장이 곧바로 수익 성장으로 연결되지 않을 경우 자본투입의 부담이 증가할 수 있다.

정책 및 규제 측면에서도 중요한 시사점이 존재한다. 대규모 전력 소비를 수반하는 AI 인프라의 확장은 지역 전력망의 안정성과 재생에너지 전환 계획과 충돌하거나 보완하는 이슈를 낳는다. 지방정부와 유틸리티와의 협력은 향후 프로젝트 승인·보조금·인프라 투자 결정에서 중요한 변수로 작용할 것이다.


단기 전망과 업계 영향

단기적으로는 오픈AI의 공격적인 인프라 확장이 엔비디아와 같은 칩 제조업체, 데이터센터 건설업체, 전력 설비 업체에 긍정적 수요 신호를 제공할 것이다. 기업 고객은 더 많은 컴퓨팅 자원을 활용해 AI 서비스를 시범 도입하거나 상용화를 가속할 수 있다. 반면 중장기적으로는 오픈AI의 수익성 개선 여부와 함께 인프라 유지·운영 비용이 회사의 전략적 의사결정에 큰 영향을 미칠 것으로 보인다.

마지막으로, 이번 달성 사실은 AI 기술 경쟁의 한 축으로서 인프라 확보가 얼마나 중요한지 재확인시킨다. 향후 오픈AI를 비롯한 대형 AI 사업자들의 추가 확장 계획, 전력 조달 방식, 지역사회와의 협력 모델, 그리고 재원 조달 전략 등이 신중히 관찰될 필요가 있다.