클라우드 컴퓨팅 스타트업 램다(Lambda)가 마이크로소프트(NASDAQ: MSFT)와 손잡고 엔비디아(NASDAQ: NVDA) 칩 수만 개로 구동되는 AI 인프라를 구축하는 수십억 달러 규모의 전략적 계약을 발표했다. 이번 합의는 AI 챗봇과 개인 비서 등 AI 기반 서비스에 대한 소비자 수요 급증을 배경으로 성사됐다.

2025년 11월 3일, CNBC 뉴스의 보도에 따르면, 람다는 이날 마이크로소프트와의 멀티빌리언(수십억) 달러 계약을 공개했다. 람다의 스티븐 발라반(Stephen Balaban) CEO는 CNBC의 Money Movers 인터뷰에서 이번 파트너십이 급증하는 AI 수요에 대응하기 위한 대규모 인프라 확충의 일환이라고 설명했다.
“우리는 아마도 역사상 가장 큰 기술 인프라 구축의 한가운데에 있다”고 발라반은 말했다. “산업은 지금 매우 잘 돌아가고 있으며, 많은 사람들이 ChatGPT와 Claude, 그리고 다양한 AI 서비스를 사용하고 있다”고 덧붙였다.
발라반 CEO는 이번 파트너십이 2018년으로 거슬러 올라가는 양사 간 장기적 협력 관계의 연장선에 있다고 밝혔다. 다만 계약의 구체적 금액은 공개되지 않았다.
핵심 계약 내용과 기술 구성
람다는 2012년 설립된 기업으로, AI 모델 학습·배포를 위한 클라우드 서비스와 소프트웨어를 제공하며 전 세계 20만 명 이상의 개발자를 지원하고 있다. 또한 엔비디아 GPU로 구동되는 서버 임대 서비스도 운영한다.
회사 발표에 따르면, 마이크로소프트와 함께 구축할 새로운 인프라에는 NVIDIA GB300 NVL72 시스템이 포함된다. 이 시스템은 하이퍼스케일러 코어위브(CoreWeave)(CRWV)에도 도입된 바 있다고 람다는 밝혔다.
용어 설명업계 일반
하이퍼스케일러란 초대형 규모의 클라우드 사업자를 가리키며, 대규모 데이터센터와 네트워크를 바탕으로 방대한 연산 수요를 유연하게 확장하는 역량을 의미한다. GPU(그래픽 처리 장치)는 대규모 행렬 연산에 특화된 병렬 처리 칩으로, 생성형 AI 학습·추론에 널리 쓰인다. NVL72는 데이터센터급 AI 연산을 위해 설계된 가속기 시스템으로, 고밀도·고대역폭 상호연결을 통해 모델 학습과 추론 성능을 끌어올리는 데 초점을 둔다.
발라반은 “우리는 엔비디아의 제품을 사랑한다“며, “그들은 시장 최고의 가속기 제품을 갖고 있다”고 말했다.
그는 또한 람다가 수십 곳의 데이터센터를 보유하고 있으며, 앞으로도 데이터센터 임대를 병행하는 한편 자체 인프라 건설도 지속할 계획이라고 밝혔다. 이는 공급망과 전력·냉각 역량을 다각화해 급증하는 고객 수요를 안정적으로 수용하려는 운영 전략으로 풀이된다.
설비 투자 및 지역 확장 계획
람다는 10월 초 미주 미주리주 캔자스시티에 AI 팩토리를 2026년에 개소하겠다는 계획을 발표했다. 해당 부지는 초기 24메가와트(MW) 용량으로 운영을 시작하며, 100MW를 넘어서는 수준까지 단계적 확장이 가능하도록 설계됐다.

한편 CNBC의 TechCheck 코너에는 “OpenAI signs $38B deal with Amazon: Here’s what to know”라는 제목의 관련 영상도 소개됐다. 본 계약과 직접적 연관성은 명시되지 않았으나, 대형 기술 기업들의 AI 투자 기조가 이어지고 있음을 가늠케 한다.
배경과 맥락: AI 인프라 수요의 구조적 확대
이번 램다-마이크로소프트 계약은 생성형 AI 서비스의 대중화가 대규모 연산 인프라를 필요로 한다는 점을 다시금 확인시킨다. 기사에서 확인되는 바와 같이, ChatGPT와 Claude를 포함한 다양한 서비스 사용이 늘어나면서, 고성능 GPU·가속기에 대한 확보 경쟁은 더욱 치열해지고 있다. 이러한 맥락에서 장기 파트너십과 사전적 인프라 투자는 서비스 안정성과 성능을 담보하려는 기업들에 중요한 전략적 선택지로 자리 잡고 있다.
또한 금액 비공개라는 점은 상업적 기밀을 유지하려는 관행을 반영한다. 그럼에도 불구하고 “수십억 달러 규모”라는 표현과 엔비디아 칩 수만 개라는 정황은, 이번 협력이 단일 지역·단일 세대에 국한되지 않는 범위로 확대될 여지를 시사한다. GB300 NVL72 같은 최신 시스템의 포함은, 람다와 마이크로소프트가 고도화된 학습·추론 워크로드를 염두에 두고 있음을 보여준다.
발언과 신뢰: 2018년부터 이어진 협력의 연장
발라반 CEO는 양사 간 신뢰를 재차 강조했다.
“우리는 두 회사 사이에 많은 신뢰를 쌓아 왔다”
는 그의 발언은, 2018년부터의 협업 역사를 기반으로 이번 계약이 단발성 공급에 그치지 않고 장기적 인프라 로드맵의 일부임을 시사한다.
관련 이슈와 연관 기사
– 엔비디아 젠슨 황 CEO는 AI가 “선순환“에 들어섰다고 언급했다.
– 애플은 다른 빅테크와는 다른 AI 설비투자(capex) 전략을 보이고 있다는 분석이 소개됐다.
– 아마존은 3분기 실적 호조와 함께 연간 지출 전망을 1,250억 달러로 상향 조정했다는 보도가 있었다.
– 스페이스X와 블루 오리진은 유인 달 복귀 가속화를 위한 계획을 미 항공우주국(NASA)에 제출했다는 소식도 함께 전해졌다.
요약
람다는 마이크로소프트와 함께 엔비디아 GPU 기반의 대규모 AI 인프라 구축에 착수했다. 금액은 비공개지만 수십억 달러 규모로, 엔비디아 GB300 NVL72 시스템이 포함된다. 2012년 설립 이후 람다는 20만+ 개발자를 지원해 왔으며, 데이터센터 임대와 자체 건설 병행 전략을 이어간다. 캔자스시티 AI 팩토리는 2026년 24MW로 출발해 100MW+ 확장을 목표로 한다.


		








