엔비디아 GTC 2026: 젠슨 황, 블랙웰·베라 루빈 주문액 2027년까지 $1조 전망

엔비디아(Nvidia)의 연례 개발자 회의인 GTC에서 최고경영자(CEO) 젠슨 황(Jensen Huang)이 무대에 올라 블랙웰(Grace Blackwell)과 베라 루빈(Vera Rubin) 제품군에 대한 구매 주문이 2027년까지 총 $1조에 이를 것이라고 전망했다. 이 발언은 인공지능(AI) 인프라 수요의 급증과 서버·데이터센터용 반도체 투자 확대를 시사하는 것이다.

2026년 3월 16일, CNBC 뉴스의 보도에 따르면, 엔비디아는 전년 말 제시한 두 칩 기술 간의 시장 기회 전망치인 $5천억보다 훨씬 큰 규모의 수요 증가를 예상한다고 밝혔다. 재무책임자인 코렛 크레스(Colette Kress)는 지난달 실적 발표 이후 올해 성장률이 이전에 제시한 추정치를 상회할 것으로 전망했다고 언급했다. 발표 직후 엔비디아 주가는 해당 월요일에 약 2% 상승했다.

황 CEO는 스타트업부터 대기업까지 수요가 폭발적으로 늘고 있다고 전했다. 그는

“만약 더 많은 생산 능력을 확보할 수 있다면 더 많은 토큰을 생성할 수 있고, 그들의 수익은 더 올라갈 것이다”

라고 말하며, 처리 능력과 전력 효율이 매출 성장과 직결된다고 설명했다.

Vera Rubin엔비디아의 GPU(그래픽 처리 장치)는 인공지능 연산을 가속화하면서 회사명을 널리 알리고 있으며, 현재 시가총액은 약 $4.5조에 달해 세계에서 가장 가치 있는 상장사 중 하나가 됐다. 대화형 챗봇을 넘어 스스로 에이전트를 생성하고 작업을 수행하는 ‘에이전트형(Agentic) 애플리케이션’의 확산은 생성되는 토큰(token)의 수를 폭증시키고 있으며, 이로 인해 더 빠른 추론(inference) 처리에 대한 수요가 커지고 있다.

엔비디아는 2월에 이번 분기 연간 대비 매출이 약 77% 증가해 약 $780억에 이를 것이라고 밝혔으며, 이는 회사가 11분기 연속으로 연간 성장률 55%를 상회한 기록을 이어간다는 점을 보여준다. 한편 엔비디아는 올해 하반기에 베라 루빈(Vera Rubin) 시스템을 상용화할 예정이라고 발표했다. 회사는 베라 루빈이 130만 개의 부품으로 구성되고, 전력당 성능이 전작인 그레이스 블랙웰(Grace Blackwell)보다 10배 높다고 설명했다. 이는 데이터센터 전력 소비가 AI 확장에 있어 가장 중요한 제약 요소 중 하나라는 점에서 의미 있는 진전이다.

Vera Rubin closeup또한 황 CEO는 엔비디아가 작년 12월 약 $200억 규모의 자산인수(asset purchase)를 통해 인수한 스타트업의 기술을 기반으로 한 첫 칩인 그록(Groq) 3 LPU(Language Processing Unit)를 공개했다. 회사는 이 칩을 3분기에 출하할 예정이라고 밝혔다. 그록은 구글의 내부 텐서 처리 장치(TPU)를 설계한 인력이 창업한 기업으로, 최근 몇 년간 엔비디아의 GPU에 경쟁 구도를 형성해왔다.

그록 3 LPU는 GPU 연산을 보완하도록 설계됐으며, 황은 이 칩을 위한 전용 랙(rack)인 그록 LPX 랙을 소개했다. 이 랙은 256개의 LPU를 탑재할 수 있으며, 올해 고객에 출하될 베라 루빈 랙형 시스템 옆에 배치되도록 설계됐다. 회사는 그록 LPX 랙이 루빈 GPU의 토큰당 전력 효율을 최대 35배까지 향상시킬 수 있다고 밝혔다.

황은 두 종류의 프로세서를 통합하는 전략에 대해 설명하면서

“우리는 처리량이 높은 프로세서와 지연시간이 낮은 프로세서를 통합했다. 하지만 여전히 많은 메모리가 필요하다. 그래서 우리는 많은 그록 칩을 추가해 메모리 용량을 확장할 것이다”

라고 말했다. 이 발언은 대규모 모델을 운영할 때 메모리 대역폭과 용량이 성능 결정에 핵심이라는 점을 재확인한 것이다.

아울러 황은 차세대 랙 아키텍처인 사이버(Kyber)의 프로토타입을 공개했다. 카이버는 기존처럼 GPU를 수평으로 배열하는 대신 144개의 GPU를 수직으로 배치하는 컴퓨트 트레이를 도입해 밀도를 높이고 지연시간을 낮출 목적으로 설계됐다. 카이버 디자인은 베라 루빈의 상위 제품인 베라 루빈 울트라(Vera Rubin Ultra)에 통합되며, 엔비디아는 이 시스템을 2027년에 출하할 계획이라고 밝혔다.

황의 기조연설 약 두 시간 후, 그는 1월에 오스트리아 소프트웨어 개발자 페터 스타인베르거(Peter Steinberger)가 공개한 오픈소스 에이전트 플랫폼 오픈클로(OpenClaw) 현상을 언급했다. 오픈클로는 소셜미디어의 주목을 받으면서 소비자와 기업이 사람의 지속적 감독 없이 작업을 완수·결정·수행하는 에이전트형 제품에 몰리며 급속히 인기를 얻었다. 스타인베르거는 지난달 오픈AI에 합류했고, 오픈AI의 최고경영자인 샘 올트먼(Sam Altman)은 오픈클로가 오픈소스 재단 기반으로 유지될 것이라고 밝혔다.

황은 개발자가 엔비디아 하드웨어에서 새로운 AI 가능성을 실험·구축할 수 있도록 돕는 도구 킷을 공개했다. 그는 오픈클로 전용 참조 스택인 니모클로(NemoClaw)를 소개하며 기업용으로 준비되도록 지원하겠다고 말했다. 황은

“그것이 오픈클로를 찾아서 다운로드하고, 당신을 위해 AI 에이전트를 만들어 준다”

고 설명했다.

자동차 분야에서 황은 우버(Uber)와의 기존 파트너십에 대한 구체적 계획을 밝혔다. 우버는 엔비디아의 드라이브 AV(Drive AV) 소프트웨어로 구동되는 자율주행 차량을 2028년까지 4개 대륙 28개 도시에서 운영할 예정이며, 그 시작은 내년 로스앤젤레스와 샌프란시스코에서 이뤄질 예정이다. 또한 닛산(Nissan), BYD, 지리(Geely), 이스즈(Isuzu), 현대(Hyundai)가 엔비디아의 Drive Hyperion 프로그램을 통해 레벨4 자율주행 차량을 개발 중이며, 이스즈와 중국의 Tier IV는 엔비디아의 AGX Thor 로보틱 시스템 칩을 활용해 자율버스를 개발하고 있다.

CNBC의 조던 노벳(Jordan Novet)이 이 보도에 기여했다.


기술 용어 설명

토큰(token): 자연어 처리 모델이 텍스트를 내부적으로 처리하는 기본 단위로, 한 단어 전체이거나 단어의 일부일 수 있다. 생성형 AI가 출력물을 만들 때 생성되는 토큰 수가 곧 연산량과 비용에 직접적인 영향을 준다.

추론(inference): 이미 학습된 AI 모델을 실제 응용에서 입력 데이터에 적용해 결과를 산출하는 과정이다. 추론은 학습(training)보다 상대적으로 적은 연산을 요구하지만, 대규모 실시간 서비스에서는 막대한 컴퓨팅 자원이 필요하다.

LPU(Language Processing Unit): 언어 처리에 특화된 연산 장치로, GPU와 보완적으로 작동해 특정 언어 연산을 가속화하도록 설계된다. 그록의 LPU는 언어 연산을 전담해 시스템 전체 성능을 끌어올리는 역할을 한다.

TPU(Tensor Processing Unit): 텐서 연산을 빠르게 처리하도록 구글 등이 개발한 가속기이다. 그록의 창업진이 TPU 설계에 관여한 이력이 있어 관련 기술적 연속성이 존재한다.

랙-스케일 시스템(rack-scale system): 여러 유닛(예: GPU, LPU, 메모리 등)을 하나의 랙 단위로 통합해 데이터센터 설치와 운영 효율을 극대화하는 서버 아키텍처다. 베라 루빈은 랙 단위의 통합 설계로 높은 전력 효율과 성능 밀도를 추구한다.


경제적·시장적 영향 분석

1) 매출과 고객 설비투자(CAPEX) 확대
젠슨 황의 $1조 주문 전망은 고객사들의 데이터센터 증설과 AI 전용 하드웨어 도입이 대규모로 이어질 가능성을 시사한다. 기업이 대규모 랙·서버를 주문하면 엔비디아의 향후 수년간 매출과 서버용 GPU·가속기 판매가 크게 늘어날 수 있다. 엔비디아가 제시한 분기 매출 전망치(연간 대비 약 77% 증가, ~ $780억)는 이러한 수요 확장의 신호 중 하나이다.

2) 공급 제약과 가격 형성
대규모 수요가 현실화할 경우 반도체 공급망과 제조능력(capacity)에 대한 압박이 심화될 수 있다. 공급 부족은 납기 지연을 초래하고, 고객사들이 프리미엄을 지불해 우선 배정받으려 할 가능성이 있어 단기적으로 가격 상승 압력을 유발할 수 있다. 반대로 엔비디아가 생산능력을 신속히 확장하면 시장 점유율 확대와 규모의 경제로 수익성이 개선될 여지도 있다.

3) 에너지 효율과 운영비용
베라 루빈이 전력당 성능을 10배 향상시킨다는 점은 데이터센터의 운영비용(OPEX)을 낮추는 요인으로 작용한다. 대규모 AI 워크로드에서 전력비와 냉각비가 차지하는 비중이 크기 때문에 전력 효율 개선은 고객의 총소유비용(TCO)을 낮추어 장기적 수요를 촉진할 수 있다.

4) 경쟁 구도와 인수 전략
그록 인수와 LPU 통합 전략은 엔비디아가 단일 아키텍처(GPU)에만 의존하지 않고 다양한 가속기를 결합해 성능을 최적화하려는 의도를 드러낸다. 이는 AMD, 인텔, 클라우드 사업자 및 맞춤형 칩 개발 기업들과의 경쟁 구도를 변화시킬 수 있으며, 경쟁사들도 특화 칩과 소프트웨어 스택을 강화하는 대응을 가속할 가능성이 있다.

5) 투자자 관점
엔비디아의 거대한 잠재수요와 기술 로드맵은 주가에 긍정적 요인으로 작용할 수 있지만, 공급 제약·규제·경쟁 심화 등 리스크도 병존한다. 투자자는 생산능력 확대 계획, 고객사 계약 체결 현황, 에너지 효율 개선의 실질적 효과, 그리고 인수 통합의 실행 리스크 등을 주의 깊게 살펴야 한다.


결론
GTC 2026에서 엔비디아가 제시한 $1조 규모의 주문 전망은 AI 인프라 확대의 속도와 규모가 예상보다 빠르다는 신호다. 베라 루빈과 그록 3 LPU, 그리고 카이버 아키텍처 등 새로운 제품군은 성능·전력효율·메모리 확장성 측면에서 데이터센터 설계의 변화를 촉발할 가능성이 크다. 다만 이러한 확대가 실제 매출로 연결되기 위해서는 생산능력 확보, 공급망 안정화, 고객의 예산 집행 등 다수의 요소가 충족돼야 한다. 향후 몇 분기 동안 관련 주문 집행과 출하 일정, 그리고 경쟁사의 대응을 면밀히 관찰하는 것이 중요하다.