엔비디아, 차세대 AI 시스템 ‘베라 루빈’ 공개…전력당 성능 10배 향상

엔비디아(Nvidia)가 차세대 AI(인공지능) 시스템인 베라 루빈(Vera Rubin)을 공개했다. 회사는 이 시스템이 이전 세대인 그레이스 블랙웰(Grace Blackwell)보다 전력당 성능(Performance per Watt)을 10배 향상했다고 주장한다. 베라 루빈은 약 130만 개(1.3 million)의 구성품으로 구성된 복합 시스템이다.

2026년 2월 25일, CNBC뉴스의 보도에 따르면, 엔비디아는 캘리포니아 산타클라라 본사에서 베라 루빈의 내부를 독점 공개했다. 회사는 해당 시스템이 단일 랙(rack-scale) 형태의 AI 인프라로 설계됐으며, 에너지 효율을 극대화하도록 구성됐다고 설명했다.

Vera Rubin image

핵심 구성과 공급망

엔비디아는 베라 루빈의 핵심 칩세트로 72개의 Rubin GPU36개의 Vera CPU를 사용한다고 밝혔다. 이들 칩은 주로 대만의 파운드리인 TSMC(타이완 반도체 제조사)에서 제조된다. 시스템의 다른 구성 요소들—액체 냉각 장치, 전원 시스템, 컴퓨트 트레이 등—은 20개국 이상, 80개 이상 공급사를 통해 조달된다. 회사는 중국, 베트남, 태국, 멕시코, 이스라엘, 미국 등을 포함한 공급망을 소개했다.

시스템 물리·성능 지표

엔비디아에 따르면 베라 루빈 랙은 무게가 거의 2톤에 달하고, 총 마이크로칩 수는 약 1,300개로 그레이스 블랙웰의 864개보다 많다. 엔비디아는 베라 루빈을 완전 모듈화된 구조로 설계해 설치와 수리가 용이하다고 설명했다. 랙 당 18개의 컴퓨트 트레이가 있고, 슈퍼칩(superchip)은 각 트레이에서 수초 내로 슬라이딩 방식으로 교체가 가능하다. 반면 그레이스 블랙웰의 경우 핵심 구성품이 보드에 납땜되어 있어 교체가 상대적으로 복잡했다.

엔비디아가 공개한 슈퍼칩은 2개의 Rubin GPU와 1개의 Vera CPU를 통합한 형태이며, 개별 슈퍼칩에는 약 1만7천(17,000)개의 구성품이 포함된다. 회사는 이 시스템이 이전보다 약 두 배의 전력을 소비하지만 그에 비례해 전력당 성능이 10배 향상

“우리는 공급망이 우리가 출하하는 모든 것을 충족하도록 정렬하고 있다. 우리는 좋은 상태에 있다.”

— 디온 해리스(Dion Harris), 엔비디아 AI 인프라 총괄

데이터센터용 냉각·전력·환경 영향

베라 루빈은 엔비디아의 첫 100% 액체냉각(liquid-cooled) 시스템이다. 회사 관계자는 액체냉각 채택이 전통적인 증발 냉각(evaporative cooling) 대비 데이터센터의 물 소비량을 훨씬 줄여준다고 설명했다. 액체냉각은 높은 집적도의 고성능 칩이 밀집된 랙에서 열을 효율적으로 제거하는 수단으로 꼽히며, 전력 효율 개선과 함께 데이터센터 설계에 중요한 변수로 작용한다.

시장 반응과 고객사

지난주 메타(Meta)는 2027년까지 자사 데이터센터에 베라 루빈을 도입하겠다고 발표했다. 엔비디아는 그 외에 예상 고객으로 OpenAI, Anthropic, 아마존(Amazon), 구글(Google), 마이크로소프트(Microsoft) 등을 거론했다. 베라 루빈 랙은 미국과 대만, 멕시코의 폭스콘(Foxconn) 공장 등에서 제조된다.

Vera Rubin interior

가격·공급 이슈

엔비디아는 랙 가격을 공개하지 않았지만, 리서치 기관인 Futurum Group은 그레이스 블랙웰 대비 약 25% 인상$3.5백만 ~ $4백만(미화) 수준으로 예측했다. 동시에 업계는 AI 수요로 인한 메모리(HBM 등) 가격 상승과 공급 부족 문제를 주요 리스크로 지적한다. 엔비디아는 공급사들에게 매우 상세한 수요 예측을 제공해 조달을 안정화하려 하고 있다.

경쟁 구도

엔비디아는 AI 프로세서 시장을 지배하고 있으나, 경쟁도 심화되고 있다. AMD는 올해 안에 첫 랙-스케일 시스템인 Helios를 출하할 예정이며, 이미 메타로부터 최대 6기가와트(GW)에 달하는 용량 확보 약정을 받았다. 브로드컴(Broadcom)과 구글의 TPU와 같은 커스텀 실리콘도 경쟁 요인이다. 전문가는 고객들이 단일 공급자 의존도를 낮추기 위해 대체 소스 확보에 적극적이라고 분석한다.

“가장 중요한 것은 얼마나 많은 토큰(token)을 소비 전력 당 처리할 수 있느냐다. 이 지표를 끌어올릴수록 투자 대비 수익이 높아진다.”

— 조던 클라인(Jordan Klein), 미즈호(Mizuho) 증권 애널리스트

현장 관찰과 추가 설명

엔비디아는 2026년 2월 13일 산타클라라 본사에서 CNBC에 슈퍼칩을 공개했다. 전문가들은 베라 루빈이 기존 서버 설계와 다르게 랙 단위로 컴퓨트, 네트워킹, 케이블링, 쿨링을 통합한 점이 주목할 만하다고 분석한다. 연구기관 퓨처럼 그룹의 다니엘 뉴먼(Daniel Newman)은 “이들은 최고 효율과 성능을 위해 하나의 랙 안에 모든 시스템을 통합했다”고 평가했다.

전문 용어 설명

GPU(Graphics Processing Unit): 그래픽 처리 장치로, 병렬 연산에 강해 AI 모델 학습과 추론에 널리 사용된다.
CPU(Central Processing Unit): 중앙처리장치로 시스템 제어와 직렬 연산에 주로 쓰인다.
TPU(Tensor Processing Unit): 구글이 설계한 AI 연산용 전용 칩으로 텐서 연산에 최적화돼 있다.
랙-스케일 시스템(rack-scale): 서버 랙 단위로 컴퓨트와 냉각·전력·네트워킹을 통합해 효율을 극대화한 설계이다.
액체냉각(liquid cooling): 전통적인 공기나 증발식 냉각과 달리, 액체 매체를 사용해 고열을 직접 제거하는 방식으로 높은 집적도 시스템에서 열 관리에 유리하다.


경제적·산업적 시사점

베라 루빈의 등장으로 고성능 AI 인프라의 표준이 다시 설정될 가능성이 크다. Futurum Group의 가격 추정치($3.5M~$4M)와 엔비디아의 대규모 미국 내 제조 계획($5000억(through 2029) 규모로 AI 인프라 제조 계획 포함)을 고려하면, 데이터센터 투자 규모와 관련 장비 시장의 전체 매출이 상당히 확대될 여지가 있다. 다만 시스템 당 가격 인상과 전력 증가(약 2배라는 엔비디아의 설명)는 데이터센터 운영자의 총소유비용(TCO)에 직접적인 영향을 미칠 것으로 보인다.

운영 측면에서는 전력 비용과 전력 인프라(발전·배전·냉각 설비) 투자 부담이 커질 수 있으나, 전력당 처리 성능이 10배 향상된다는 점은 장기적으로는 전력 효율성 개선을 통한 총비용 절감으로 이어질 가능성이 있다. 또한 고객사들이 자체 실리콘(예: 아마존의 Trainium 2, 구글의 TPU)과 경쟁사 솔루션(AMD Helios)을 병행 도입하려는 경향은 공급 다원화와 가격 협상력 확보라는 측면에서 시장 균형을 만들어낼 것이다.

결론 및 전망

베라 루빈은 엔비디아가 AI 인프라 시장에서 기술적 우위를 지속하려는 전략적 제품이다. 2026년 하반기 출하가 예정돼 있으므로 향후 수개월 동안 주요 클라우드·AI 기업들의 도입 결정과 AMD 등 경쟁사의 대응이 업계 판도를 가를 핵심 변수로 작용할 전망이다. 에너지·메모리 가격, 공급망 안정성, 고객의 자체 실리콘 도입 여부가 베라 루빈의 실질적 시장 확산 속도를 결정할 것이다.