AWS, 엔비디아와 전략적 기술 채택으로 AI 인프라 확대
라스베이거스에서 열린 연례 클라우드 컨퍼런스에서 아마존닷컴의 클라우드 부문인 AWS(Amazon Web Services)가 향후 세대 인공지능(AI) 컴퓨팅 칩에 엔비디아(Nvidia)의 핵심 기술을 채택하겠다고 밝혔다. AWS는 대형 AI 고객의 워크로드를 끌어오기 위한 전략의 일환으로, 차세대 칩에 고속 접속 기술인 NVLink 기반의 NVLink Fusion을 도입할 계획이라고 발표했다.
2025년 12월 2일, 로이터 통신 보도에 따르면 AWS는 출시 시점이 특정되지 않은 차세대 칩 Trainium4에 NVLink Fusion을 적용할 예정이다. NVLink는 서로 다른 종류의 칩 간을 초고속으로 연결하는 기술로, 엔비디아의 핵심 자산으로 꼽힌다. 이 같은 연결성은 대규모 AI 모델 학습에서 필수적인 수천 대의 머신을 긴밀히 묶어 지연을 낮추고 대역폭을 높이는 데 중요한 역할을 한다.
이번 발표는 매년 라스베이거스에서 열리는 AWS의 주간(week-long) 클라우드 컴퓨팅 컨퍼런스에서 나왔다. 이 행사에는 약 6만 명이 참가하며, 아마존은 지난해 처음 공개한 자사 노바(Nova) AI 모델의 업데이트 버전도 선보일 것으로 예상된다.
엔비디아 NVLink 생태계 확장… 인텔·퀄컴·AWS 합류
엔비디아는 NVLink 기술의 확산을 위해 다른 반도체 기업들과의 협력을 확대하고 있다. 인텔(Intel), 퀄컴(Qualcomm)에 이어 AWS까지 동참하면서, 칩 간 초고속 상호 연결을 표준화하려는 움직임이 속도를 내고 있다. 이러한 기술 채택은 다양한 이기종 칩이 결합된 AI 서버에서 규모 확장과 효율성을 뒷받침하는 기반이 된다.
AWS는 엔비디아와의 협력을 통해 더 큰 규모의 AI 전용 서버를 구축할 수 있게 되며, 서버 간 인식과 통신 속도를 끌어올릴 수 있다고 밝혔다. 이는 대규모 언어모델(LLM) 등 초거대 AI를 학습하는 과정에서 핵심 변수다. 아울러 이번 파트너십의 일환으로 고객들은 자체 데이터센터 내에 전용 AI 인프라를 배치할 수 있는 AI 팩토리(AI Factories)에 접근할 수 있게 된다. 이는 속도와 준비성을 높이려는 기업 수요에 부합하는 옵션으로 소개됐다.
엔비디아 CEO 젠슨 황(Jensen Huang)은 성명에서 “엔비디아와 AWS는 AI 산업혁명을 위한 컴퓨트 패브릭을 함께 구축하고 있으며, 이를 통해 모든 국가의 모든 기업에 첨단 AI를 제공하고 세계가 지능에 이르는 길을 가속하고 있다”고 말했다.
신규 서버 공개: Trainium3 기반, 즉시 이용 가능
아마존은 별도로 Trainium3 칩에 기반한 신규 서버를 공개하고 현지 화요일부터 이용 가능하다고 밝혔다. 해당 서버는 각 노드에 144개 칩을 탑재하며, AWS의 이전 세대 AI 대비 4배를 웃도는 연산 성능을 제공하고, 전력 사용량은 40% 절감한다고 데이브 브라운(Dave Brown) AWS 컴퓨트 및 머신러닝 서비스 부사장이 로이터에 말했다.
브라운 부사장은 절대적인 전력·성능 수치는 공개하지 않았으나, AWS가 가격 경쟁력을 바탕으로 엔비디아를 포함한 경쟁사와 맞설 것이라고 강조했다.
브라운은 “우리는 고객에게 필요한 성능을 제공하면서도 가격 대비 성능(price-performance) 이점을 줄 수 있는 제품임을 입증해야 한다”며, “그렇다면 고객은 ‘그래, 내가 쓰고 싶은 칩은 바로 그거야’라고 말할 수 있을 것”이라고 말했다.
용어로 짚어보는 핵심 기술
NVLink / NVLink Fusion: NVLink는 칩과 칩 사이를 초고속·저지연으로 연결하는 고대역폭 인터커넥트 기술이다. NVLink Fusion은 이러한 연결성을 확장·통합해, 서로 다른 종류의 프로세서가 더 큰 논리적 클러스터처럼 동작하도록 돕는다. 대규모 AI 학습에서 수천 개 가속기를 하나의 시스템처럼 유기적으로 묶는 데 기여한다.
Trainium: AWS가 자체 설계한 AI 전용 가속기 칩 계열로, Trainium3는 이번에 즉시 이용 가능한 신형 서버에 탑재됐고, Trainium4는 향후 세대 칩으로 NVLink Fusion 채택이 예고됐다. Trainium 계열의 목표는 학습 효율과 가격 대비 성능을 높여 고객 선택지를 넓히는 데 있다.
AI 팩토리(AI Factories): 고객의 자체 데이터센터 내부에 배치되는 전용 AI 인프라로, 속도와 준비성 향상을 위한 설계 개념이다. 규제가 엄격한 산업에서의 데이터 주권 이슈나, 초저지연 요구 같은 현업 니즈에 대응하기 쉬운 배치 방식으로 평가된다.
산업적 의미와 맥락
AWS가 엔비디아의 NVLink 기술을 차세대 자체 칩에 통합하기로 한 결정은, 자체 실리콘과 타사 핵심 인터커넥트의 결합을 통해 확장성과 상호운용성을 동시에 추구하는 전략으로 해석된다. 이는 대형 모델 학습에서 가장 중요한 요소 중 하나인 대규모 분산 컴퓨팅의 병목을 줄여, 학습 시간 단축과 클러스터 효율 극대화를 도모하려는 접근이다.
또한 Trainium3 기반 신규 서버가 즉시 사용 가능해졌다는 점, 그리고 144개 칩/서버, 4배 이상 성능, 전력 40% 절감이라는 메시지는, 고객이 총소유비용(TCO) 관점에서 가격 대비 성능을 따질 때 주목할 만한 포인트다. 절대 수치가 공개되지 않았다는 제약은 있으나, 가격 경쟁력을 전면에 내세운 점은 클라우드 AI 인프라 선택의 비용·효율 축을 부각시킨다.
AI 팩토리 옵션은, 특정 업종에서 중요한 지연 시간 관리, 데이터 통제, 규정 준수 요구를 충족하면서 온프레미스 수준의 통제력과 AWS·엔비디아 생태계의 첨단 역량을 결합하려는 고객의 의사결정에 직접적인 의미를 가진다. 이는 퍼블릭 클라우드, 프라이빗 배치, 하이브리드 아키텍처 간 경계를 세분화하는 흐름과도 맞닿아 있다.
고객 관점 체크포인트
기업 고객은 다음을 점검할 수 있다. 첫째, Trainium3 서버의 실제 워크로드 성능과 에너지 절감 효과의 체감치. 둘째, NVLink Fusion이 적용될 Trainium4의 출시 시점 미정을 전제한 중기 로드맵 설계. 셋째, AI 팩토리 배치 시 보안·거버넌스·지연 시간 관점의 이점. 넷째, 가격 대비 성능을 중심으로 한 벤더·아키텍처 선택 전략이다. 이 모든 판단은 기사에 제시된 공식 정보 범위 내에서, 각 조직의 데이터·컴퓨팅 수요와 규제 환경을 반영해 이뤄질 필요가 있다.









