마이크로소프트, 클라우드 사업 강화 위해 AI 칩 2세대 ‘마이아 200’ 공개

마이크로소프트(Microsoft)가 자체 개발한 인공지능(AI) 칩의 2세대 모델인 ‘마이아(Maia) 200’을 공개했다. 이번 발표는 엔비디아(Nvidia)의 주력 프로세서와 아마존(Amazon), 구글(Google) 등 클라우드 경쟁사의 AI 하드웨어에 대한 대안으로 주목된다.

2026년 1월 26일, CNBC 뉴스의 보도에 따르면, 마이크로소프트는 2024년 공개한 1세대 칩 마이아 100(Maia 100)에 이어 성능과 확장성을 높인 두번째 칩을 내놓았다고 밝혔다. 마이아 100은 클라우드 고객에게 임대할 수 있도록 제공되지는 않았으나, 마이아 200은 “향후 더 넓은 고객 가용성(wider customer availability)을 제공할 것”이라고 회사가 덧붙였다. Scott Guthrie 마이크로소프트 클라우드·AI 부문 수석부사장은 회사 블로그에서 마이아 200을

“마이크로소프트가 배치한 시스템 중 가장 효율적인 추론(inference) 시스템”

이라고 직접 표현했다.

주목

Microsoft AI image 마이크로소프트는 개발자, 학계, AI 연구소 및 오픈소스 AI 모델 기여자들을 대상으로 소프트웨어 개발 키트(SDK) 미리보기를 신청받을 계획이라고 밝혔다. 이 SDK는 모델 추론과 관련한 소프트웨어 최적화에 사용될 것으로 보인다.

제품 적용 범위에 대해서는 마이크로소프트의 슈퍼인텔리전스팀(Superintelligence team)과 마이크로소프트 365 코파일럿(Microsoft 365 Copilot) 상업용 번들, 그리고 AI 모델 위에 구축하는 서비스인 Microsoft Foundry 등이 마이아 200을 사용한다고 회사는 밝혔다. 슈퍼인텔리전스팀은 Mustafa Suleyman이 이끌고 있다.


주요 기술 사양과 설계

마이아 200 칩은 대만 TSMC의 3나노미터(3nm) 공정을 사용해 제조된다. 한 서버당 4개의 칩이 연결되어 동작하며, 서버 간 통신은 업계에서 흔히 쓰이는 InfiniBand 대신 Ethernet 케이블 기반으로 설계됐다. 이는 엔비디아가 2020년 멜라녹스(Mellanox)를 인수한 이후 판매하는 InfiniBand 스위치와의 차별화 포인트다.

주목

성능 측면에서 회사는 동일 가격대의 경쟁 제품 대비 약 30% 높은 성능을 제공한다고 밝혔다. 마이크로소프트는 또한 마이아 200이 아마존 웹서비스(AWS)의 3세대 Trainium 칩이나 구글의 7세대 텐서 처리 장치(TPU v7)보다 더 많은 고대역폭 메모리(High-Bandwidth Memory, HBM)를 탑재했다고 설명했다. Guthrie는 최대 6,144개의 마이아 200 칩을 상호 연결해 높은 성능을 달성하고 에너지 사용량과 총소유비용(TCO)을 낮출 수 있다고 기술적 근거를 제시했다.

기술 용어 설명
InfiniBand는 고속 데이터 전송을 위해 데이터센터에서 널리 사용되는 네트워킹 표준으로, 특히 GPU 기반 대규모 분산 학습에 자주 쓰인다. 반면 Ethernet은 범용 네트워킹 표준으로 비용과 호환성 측면에서 장점이 있다. 고대역폭 메모리(HBM)는 AI 연산에서 메모리 대역폭 병목을 완화해 대규모 모델 추론과 학습에 중요한 역할을 한다. 추론(inference)은 이미 학습된 AI 모델을 실제 입력에 적용해 결과를 산출하는 과정이며, 학습(training)은 모델의 매개변수를 조정해 지식을 습득시키는 과정이다.


배치 계획 및 경쟁 구도

마이크로소프트는 우선 미국 센트럴(U.S. Central) 데이터센터 지역에 마이아 200을 배치하고, 이후 미국 웨스트 3(U.S. West 3) 지역으로 확대할 계획이라고 밝혔다. 추가 지역도 순차적으로 지원될 예정이다. 이 같은 자체 설계 칩의 확산은 클라우드 사업자가 외부 공급업체에 대한 의존도를 낮추고 비용 구조를 최적화하려는 전략의 일환으로 해석된다.

현재 클라우드 시장에서는 엔비디아가 AI 하드웨어 시장을 주도하고 있으며, AWS는 자체 Trainium을, 구글은 TPU를 통해 자사 클라우드의 경쟁력을 강화해왔다. 마이크로소프트의 마이아 200 출시는 이러한 경쟁 환경에서 자체 하드웨어로 성능·비용 측면에서 차별화를 시도하는 사례다.

과거 시연과 연계성
마이크로소프트는 2023년 GitHub Copilot 코딩 보조 도구가 마이아 100 프로세서에서 동작할 수 있음을 시연한 바 있다. 이 경험을 바탕으로 마이아 200은 상업적 서비스와 연구·개발용 워크로드 모두에 적용될 가능성이 크다.


시장·경제적 영향 분석

마이아 200의 상용화는 클라우드 사업의 비용구조와 경쟁 판도에 영향을 미칠 수 있다. 우선 자체 설계 칩을 통한 총소유비용(TCO) 절감은 마이크로소프트가 클라우드 서비스 가격 책정이나 수익성 개선에 활용할 여지를 제공한다. 회사가 주장한 30% 성능 우위대규모 연결(6,144칩)을 통해 고객에게 제공할 수 있는 처리량이 늘어나면, 대형 AI 모델을 운영하려는 기업들의 수요를 흡수할 가능성이 있다.

하지만 몇 가지 제한 요소도 존재한다. 하나는 생태계의 표준화이다. 대규모 분산 연산에서 널리 쓰이는 InfiniBand 대신 Ethernet을 채택한 설계는 초기에는 비용·유지관리 측면에서 유리하지만, 기존 인프라와의 호환성이나 특정 워크로드에서의 레이턴시(지연) 이슈가 검증돼야 한다. 둘째, TSMC의 3nm 공정 의존은 생산능력과 공급 안정성 면에서 반도체 생태계의 외부 변수에 영향을 받는다. 셋째, 고객 가용성이 실제로 언제, 어떤 형태로 확대될지와 관련해 구체적 시점이 공개되지 않았다는 점은 향후 채택 속도를 불확실하게 만든다.

단기적으로는 마이크로소프트가 자사 클라우드(Azure)의 AI 서비스 경쟁력을 강화함으로써 엔터프라이즈 고객 유치와 고부가가치 AI 워크로드의 Azure 전환을 노릴 것이다. 장기적으로는 자체 칩 개발이 다른 대형 클라우드 사업자에게도 자체 설계 칩 도입을 촉진해 반도체 설계·생산 경쟁을 심화시킬 가능성이 있다. 이는 반도체 수요 구조의 다변화와 가격 변동성 확대를 초래할 여지도 있다.


결론

마이아 200 공개는 마이크로소프트가 클라우드·AI 경쟁에서 하드웨어 설계를 무기화하려는 전략의 연장선이다. 기술적 특성(3nm 공정, HBM 탑재, 대규모 칩 연결)배치 계획(미국 센트럴→웨스트 3 등)은 회사의 서비스 경쟁력 강화에 직접적으로 기여할 전망이다. 다만 실제 고객 가용성 확대 시점, 대규모 운용에서의 성능·호환성 검증, 반도체 공급망 변수 등은 향후 관전 포인트로 남는다.

참고 본 보도는 마이크로소프트와 CNBC 보도 자료, 회사 블로그의 공개 내용을 바탕으로 정리했으며, 인용 문구는 Scott Guthrie의 표현을 번역·인용한 것이다.