구글, 10년 맞춤형 칩 투자 결실… AI 경쟁의 ‘비밀 병기’로 떠오른 TPU ‘아이언우드’

엔비디아가 인공지능(AI) 반도체 시장에서 사실상 독보적 리더로 자리매김하며, 세계 주요 빅테크 기업들에 대규모 그래픽처리장치(GPU)를 판매해 시가총액 $4.5조에 도달한 가운데, 구글이 지난 10여 년간 쌓아온 맞춤형 AI 칩(커스텀 실리콘) 전략이 속도를 내고 있다다.

2025년 11월 7일, CNBC뉴스의 보도에 따르면, 구글은 자체 설계한 차세대 AI 가속기 TPU(Tensor Processing Unit)의 7세대 제품인 ‘아이언우드(Ironwood)’를 수 주 내 광범위하게 제공할 계획이라고 발표했다. 이는 2018년부터 클라우드 고객에도 개방된 TPU 라인업의 최신판으로, 구글이 단순한 ‘GPU 구매자’에 머물지 않고 적극적인 ‘반도체 개발자’로서 존재감을 키우고 있음을 보여준다.

구글은 그동안 엔비디아 GPU 구매를 통해 클라우드 상의 AI 연산 수요 급증에 대응해 왔으며, 단기간 내 이 구매 기조를 늦출 조짐은 없다. 다만 이번 발표로 구글은 하이퍼스케일러 중에서도 자체 실리콘을 대규모로 실서비스에 투입하는 몇 안 되는 사업자로 부각됐다. 이는 AI 컴퓨팅 파워 수요가 기하급수적으로 커지는 현 시점에서 차별적 경쟁우위를 제공한다.

주목

Google's AI chip 'Ironwood' takes on Nvidia

아이언우드는 AI용 애플리케이션 특화 집적회로(ASIC)로 설계되었으며, 초대형 모델 학습부터 실시간 챗봇·AI 에이전트 구동에 이르는 최대급 AI 워크로드를 처리하도록 고안됐다. 구글은 아이언우드가 전 세대 대비 4배 이상 빠른 성능을 제공한다고 밝혔으며, AI 스타트업 앤스로픽(Anthropic)은 차세대 Claude 모델 운영을 위해 최대 100만 개의 TPU 사용을 계획하고 있다.

이번 조치는 모든 하이퍼스케일러가 초대형 데이터센터를 건설하고, 수요를 따라잡기 위해 AI 프로세서를 ‘찍어내도 모자라는’ 상황에서 구글에 전략적 유연성을 제공한다. 경쟁 클라우드들도 자체 칩을 추진 중이나 진척도는 엇갈린다. 아마존웹서비스(AWS)는 2019년 첫 AI 추론 칩 Inferentia를, 2022년 학습용 Trainium을 고객에 제공하기 시작했다. 마이크로소프트는 2023년 말에야 첫 커스텀 AI 칩 Maia를 공개했다.

버니스타인의 반도체 담당 애널리스트 스테이시 라스곤은 “ASIC 플레이어들 중 구글만이 이 기술을 엄청난 물량으로 실제 배치해왔다”며 “다른 대형 사업자에게는 시간이 오래 걸리고 막대한 노력과 비용이 든다. 구글은 다른 하이퍼스케일러 중에서 가장 앞서 있다”고 말했다.

구글은 본 기사에 대해 별도의 논평을 내지 않았다.

주목

구글 TPU의 상용화와 엔비디아의 경계도 포착된다. TPU는 원래 구글 내부 워크로드를 위해 훈련·운영되었으나, 2018년부터 외부 클라우드 고객에게도 제공되기 시작했다. 올해 초 오픈AI(OpenAI)가 구글과 첫 클라우드 계약을 체결하자, 월스트리트저널(WSJ) 보도에 따르면 이 발표가 엔비디아 CEO 젠슨 황으로 하여금 오픈AI 및 CEO 샘 앨트먼과의 추가 협의를 추진하게 한 계기가 되었다고 전했다.

엔비디아와 달리, 구글은 칩을 하드웨어로 직접 판매하지 않고 클라우드 서비스 형태로 접근권을 제공한다. 이는 구글의 핵심 성장 축으로 부상한 클라우드 사업과 맞물린다. 구글 모회사 알파벳은 지난 주 발표한 3분기 실적에서 클라우드 매출이 전년 대비 34% 증가한 151억5천만 달러월가 전망을 상회했다고 밝혔다. 분기 말 기준 수주잔고(백로그)1,550억 달러였다.

순다르 피차이 CEO는 실적발표에서 “TPU 및 GPU 기반을 포함한 AI 인프라 제품에 대한 수요가 상당하다”며 “지난 1년간 성장의 핵심 동력이었고, 앞으로도 매우 강한 수요가 이어질 것으로 본다. 우리는 그 수요에 대응하기 위해 투자를 확대하고 있다”고 말했다.

구글은 클라우드 부문 내에서 TPU 사업 규모를 별도로 공시하지 않는다. D.A. 데이비드슨 애널리스트들은 9월 보고서에서 TPU와 구글 딥마인드를 묶은 ‘독립 사업’의 가치를 약 9,000억 달러로 추정했다. 이는 같은 해 1월 추정치 7,170억 달러 대비 상승한 수치다. 현재 알파벳의 시가총액3.4조 달러를 상회한다.


‘정밀 타깃팅’된 칩 설계와 전력 한계

구글의 차별점은 맞춤화(customization)다. 분석가들은 TPU가 경쟁 제품·서비스 대비 탁월한 효율을 제공한다는 점을 핵심 장점으로 꼽는다. 테크 인사이츠의 제임스 샌더스는 “구글은 자사가 예상하는 워크로드에 아주 정밀하게 최적화된 칩을 만들고 있다”고 평가했다.

라스곤은 향후 효율성이 더 중요해질 것이라며, 현재 규모의 인프라 확장 국면에서는 “가능성이 가장 큰 병목은 칩 공급이 아니라 전력(power)”이라고 진단했다. 구글은 전력·지속가능성 제약을 고려한 이색 실험도 공개했다. 화요일, 구글은 프로젝트 ‘선캐처’(Suncatcher)를 발표하며, “태양광으로 구동되는 인공위성에 TPU를 탑재한 상호연결 네트워크를 통해 태양의 에너지를 최대한 활용하는” 우주 기반 확장형 AI 인프라 구상을 소개했다.

구글은 이 프로젝트의 일환으로 2027년 초까지 TPU를 탑재한 태양광 위성 2기의 시제품 발사를 추진할 계획이라고 밝혔다. 회사는 발표문에서 “이 접근법은 대규모 확장 잠재력이 크고, 지상 자원에 미치는 영향을 최소화한다”며, “궤도 상에서 하드웨어를 시험해 우주에서의 대규모 연산 시대를 위한 기반을 마련할 것”이라고 설명했다.

Google opens access to its most powerful AI chip

사상 최대 TPU 거래지난달 말 체결됐다. 구글은 오픈AI의 경쟁사 앤스로픽과의 파트너십을 ‘수십억 달러대’에서 ‘수십억 달러대 후반’으로 대폭 확장하는 계약을 발표했다. 이번 협력을 통해 구글은 2026년1GW(기가와트)를 훌쩍 넘는 AI 컴퓨트 용량을 추가 투입할 것으로 예상된다.

토마스 쿠리안 구글 클라우드 CEO는 당시 “앤스로픽이 TPU 사용을 대폭 확대하기로 한 선택은, 가격-성능과 효율 측면에서 수년간 확인해 온 TPU의 강점을 반영한다”고 말했다.

구글은 앤스로픽에 30억 달러를 투자했으며, 아마존이 앤스로픽의 핵심 클라우드 파트너 지위를 유지하는 가운데에서도, 차기 Claude 모델의 코어 인프라는 구글이 제공한다.

마이크 크리거 앤스로픽 최고제품책임자(CPO)는 “우리 모델에 대한 수요가 워낙 커서, 올해만큼의 서비스 제공을 실현할 수 있었던 유일한 길은 멀티 칩 전략뿐이었다”며 “TPU, 아마존 Trainium, 엔비디아 GPU에 걸친 전략으로 비용·성능·중복성을 최적화하고 있다”고 말했다. 그는 “각 실리콘 제공업체에서 동등한 성능이 나오도록 선제적으로 많은 작업을 했다”며, “그 투자가 결실을 맺어, 이제 초대형 데이터센터를 신속히 가동하며 고객이 있는 곳에서 수요를 맞출 수 있게 됐다”고 덧붙였다.


메타·오픈AI와의 클라우드 협력, 그리고 ‘지갑을 여는’ 투자자

앤스로픽 계약 두 달 전, 구글은 메타6년에 걸친 100억 달러+ 규모 클라우드 계약을 체결했다. 다만, 이 계약에서 TPU 사용 비중은 명확히 공개되지 않았다. 한편 오픈AI마이크로소프트 의존도를 낮추기 위해 구글 클라우드 사용 개시를 밝히는 동시에, 로이터GPU를 배치하지 않는다고 전했다.

아나트 아쉬케나지 알파벳 CFO는 최근 분기 클라우드 호조를 “구글의 풀 AI 스택에 대한 기업 수요 증가” 덕분으로 돌렸다. 회사는 2025년 1~9월 동안 10억 달러+ 규모의 클라우드 딜을 지난 2년 합계보다 더 많이 체결했다고 밝혔다.

아쉬케나지는 “GCP에서 기업용 AI 인프라 수요가 강하며, TPU와 GPU 모두에 대한 관심이 높다”고 말했다. 또한 “최신 제미나이(Gemini) 제품군과 사이버보안·데이터 분석 등 서비스에도 사용자가 몰리고 있다”고 덧붙였다.

AWS 역시 유사한 흐름을 관측 중이다. 아마존은 최근 분기 클라우드 인프라 매출 20% 성장을 보고했다. AWS CEO 맷 가먼은 인터뷰에서 Trainium 시리즈의 모멘텀을 강조하며 “오늘날 데이터센터에 반입하는 모든 Trainium 2 칩즉시 판매·사용되고 있다”고 말했다. 그는 Trainium 3에서의 성능 향상 및 효율 개선도 예고했다.

주주들은 ‘막대한 투자’를 받아들이고 있다. 구글은 올해 설비투자(Capex) 가이던스 상단850억 달러에서 930억 달러로 상향했고, 2026년에는 더 가파른 증가를 예상한다. 주가는 3분기 38% 급등하며 20년 내 분기 최고 성과를 기록했고, 4분기에도 17% 추가 상승 중이다.

Amazon's $11B data center goes live


애널리스트 시각: TPU의 ‘가격-성능’으로 구글 클라우드 가속

미즈호는 구글 TPU의 명확한 비용·성능 우위를 지적하며, 당초 내부용으로 설계되었던 칩이 이제는 외부 고객·대형 워크로드를 잇달아 수주하고 있다고 평가했다. 모건스탠리는 “엔비디아 GPU가 당분간 AI 칩 시장에서 지배적 공급자 지위를 유지하겠지만, 개발자들의 TPU 친숙도가 높아질수록 구글 클라우드 성장의 의미 있는 동력이 될 수 있다”고 진단했다.

D.A. 데이비드슨은 TPU 수요가 워낙 견조해, 구글이 TPU 시스템을 외부 고객에게 직접 판매하는 방안(프론티어 AI 연구소 포함)도 고려할 수 있다고 제언했다. 이들은 “우리는 여전히 구글 TPU가 엔비디아의 최선의 대안이라고 믿으며, 지난 9~12개월 사이 두 회사 간 격차가 크게 축소됐다”고 분석했다. 또한 “이 기간 TPU에 대한 긍정적 인식이 꾸준히 확대되는 것을 목격했다”고 덧붙였다.


용어 풀이: 기사 이해를 돕는 핵심 개념

TPU(Tensor Processing Unit)는 구글이 AI 학습·추론을 위해 행렬·텐서 연산을 가속하도록 설계한 맞춤형 칩이다. GPU(Graphics Processing Unit)는 본래 그래픽 처리를 위해 개발됐으나, 대규모 병렬 연산에 강해 딥러닝 학습에서 표준처럼 쓰인다. ASIC(Application-Specific Integrated Circuit)은 특정 작업에 최적화된 칩으로, 범용 칩 대비 성능·전력 효율을 극대화할 수 있다. 하이퍼스케일러는 초대형 데이터센터로 글로벌 클라우드 인프라를 운영하는 사업자(예: 구글, 아마존, 마이크로소프트)를 뜻한다. 기가와트(GW)는 전력 단위로, 초대형 데이터센터 전력 규모를 가늠하는 지표로 자주 사용된다.


분석: 구글의 ‘서비스형 칩’ 모델이 만드는 해자(垓字)

이번 발표는 구글의 AI 인프라 전략이 ‘하드웨어 판매’가 아닌 ‘클라우드 서비스’로 수렴하고 있음을 다시 확인시킨다. 즉, 구글은 칩-소프트웨어-플랫폼수직 통합해, 고객에게 TPU 액세스AI 스택(예: 제미나이)을 패키지로 제공한다. 이는 단순 칩 벤더와 달리, 과금·성능·확장성을 종단 간에서 조율하며, 개발자 생태계를 자사 클라우드에 고착시키는 효과를 낳는다.

동시에 멀티칩 전략은 고객에게 공급망 리스크 완화비용 최적화를 제공한다. 앤스로픽 사례에서 보듯, TPU·Trainium·GPU를 병행하면 워크로드 특성에 따라 가격-성능-중복성 균형을 취할 수 있다. 이는 ‘칩 수급’보다 ‘전력’이 병목이 될 수 있다는 지적과도 연결된다. 효율 특화 설계소프트웨어 최적화가 장기 해법임을 시사한다.

아울러, 프로젝트 선캐처는 전력·입지 제약을 넘으려는 장기 실험으로 주목된다. 태양광 위성-TPU 네트워크 구상은 아직 초기 단계지만, “지상 자원 영향 최소화”라는 명분 아래 우주 컴퓨팅의 가능성을 타진한다. 이는 전력 집약적 AI의 확장 경로에 대한 하나의 사전 포석으로서 의미가 있다.

결국, 엔비디아 GPU의 지배력은 단기간 흔들리지 않겠지만, 개발자 친숙도와 가격-성능에서 TPU의 존재감이 커질수록 구글 클라우드점유·수익성 개선 여지는 확대된다. 대규모 Capex와 함께 가시화되는 수주잔고, 대형 고객사 계약은 이 논리를 뒷받침한다. 이번 아이언우드 공개는 그 궤적을 한 단계 앞당기는 촉매로 작용할 가능성이 크다.