메타 플랫폼스(페이스북 모회사)가 알파벳 산하 구글과 협상을 진행하며, 2027년부터 데이터센터에 구글의 인공지능(AI) 칩을 도입하고 내년에는 구글 클라우드에서 해당 칩을 임대하는 방안을 검토 중이라고 기술 매체 더 인포메이션을 인용한 보도가 나왔다다.
2025년 11월 25일, 로이터 보도에 따르면 더 인포메이션은 메타가 수십억 달러 규모의 지출을 전제로 구글의 텐서 프로세싱 유닛(TPU)을 활용하는 방안을 논의 중이라고 전했다다. 구체적으로는 2027년부터 메타 자체 데이터센터에 TPU를 배치하고, 이르면 내년 중에는 구글 클라우드를 통해 TPU 임대를 시작하는 이원적 도입 시나리오가 거론된다고 했다다.
구글은 TPU를 엔비디아의 GPU 대비 비용 효율적인 대안으로 홍보해 왔으며, 보안 요구 수준이 높은 기업에도 유용하다는 점을 강조하고 있다다. 더 인포메이션은 아울러 구글이 TPU 칩 사업을 통해 엔비디아의 매출의 10%에 해당하는 규모를 겨냥하는 방안을 내부적으로 논의한 것으로 알려졌다고 전했다다.
현재 TPU는 구글 클라우드에서 임대(렌털) 가능한 형태로 제공되고 있으며, 이는 전 세계적으로 공급이 빠듯한 엔비디아 GPU의 대체 수단으로 기능하고 있다다.
메타, 구글, 엔비디아는 모두 해당 보도에 대한 즉각적인 논평 요청에 응하지 않았다다. 로이터는 해당 내용을 독자적으로 즉시 검증하지는 못했다고 밝혔다다.
메타는 올해 초 향후 3년간 미국 내 인프라와 일자리에 6,000억 달러(USD 600 billion)를 투자하겠다고 발표한 바 있으며, 여기에는 AI 데이터센터 구축이 포함돼 있다다.
또한 메타는 2022년부터 엔비디아의 굵직한 고객사 중 하나로 꼽혀 왔고, 자사 AI 모델 학습을 위한 GPU를 대거 확보해 왔다다. 이들 모델은 매일 30억 명 이상이 사용하는 메타의 각종 앱 서비스 운영에도 활용되고 있다다.
핵심 포인트 요약
더 인포메이션 보도 요지: 메타가 2027년부터 구글 TPU를 데이터센터에 배치하고, 내년에는 구글 클라우드에서 TPU를 임대하는 방안을 논의 중이며, 지출 규모는 수십억 달러에 달할 수 있다다.
구글의 전략: TPU를 엔비디아 GPU의 저가·고보안 대안으로 내세우고, TPU 사업으로 엔비디아 매출의 10% 수준을 겨냥하는 방안이 거론된다다.
용어 설명: TPU와 GPU
TPU(Tensor Processing Unit)는 구글이 AI 연산을 위해 설계한 특화 칩으로, 행렬·텐서 연산을 고속 처리하는 데 최적화돼 있다다. 반면 GPU(Graphics Processing Unit)는 원래 그래픽 처리용으로 개발됐지만, 병렬 연산에 강점이 있어 AI 학습·추론에서 사실상의 표준으로 자리 잡았다다. 핵심 차이는 설계 철학과 소프트웨어 생태계에 있는데, TPU는 구글 클라우드 및 특정 프레임워크 최적화를 전제로 성능·비용·전력 효율 측면에서 강점을 노리는 반면, GPU는 범용성과 도구 생태계의 폭을 무기로 광범위하게 채택돼 왔다다.
클라우드 임대 모델은 기업이 칩을 직접 구매·설치하지 않고 클라우드 제공업체 인프라에서 사용량 기반으로 빌려 쓰는 방식이다다. 초기 투자비를 낮추고, 수요 변화에 맞춰 유연한 확장이 가능하다는 장점이 있다다. 이번 보도에서 메타가 내년에 TPU를 임대하는 시나리오는 단기적 역량 확보에 초점을 맞추고, 2027년 온프레미스 배치는 중장기 비용·성능 최적화를 도모하는 이원 전략으로 해석된다다.
시장적 함의와 경쟁 구도
보도 내용이 사실로 확인될 경우, 이는 AI 가속기 종속 리스크를 완화하려는 수요자 측 전략이 본격화되고 있음을 시사한다다. 현재 엔비디아 GPU 공급 제약이 지속되는 가운데, 구글 TPU는 가격·가용성·보안 요구를 동시에 고려한 현실적 대안으로 부각될 수 있다다. 특히 엔비디아 매출의 10% 수준을 TPU 사업의 목표선으로 그려본 구글의 내부 논의는, AI 칩 시장의 다극화가 가속화될 가능성을 비춘다다.
메타의 관점에서 보면, 내년 클라우드 임대→2027년 자체 배치라는 단계적 접근은 학습·추론 수요의 변동성을 관리하면서 총소유비용(TCO)을 최적화하려는 선택으로 해석된다다. 다만 이는 소프트웨어 스택 전환 비용과 운영 복잡성을 수반할 수 있어, 실제 전환 폭과 속도는 성능 검증·생태계 성숙도·워크로드 적합성 등에 좌우될 것이다다.
불확실성과 유의점
현재 단계에서 메타·구글·엔비디아 모두가 논평을 내지 않았고, 로이터는 독자 검증을 완료하지 못했다고 밝혔다다. 따라서 거래의 성사·규모·일정은 변동 가능성이 열려 있다다. 특히 반도체 조달과 데이터센터 구축은 복잡한 공급망·규제·기술 검증을 거치므로, 2027년 배치라는 중장기 타임라인은 점진적 전환을 전제로 한 계획으로 보는 편이 타당하다다.
그럼에도 메타의 6,000억 달러 규모 미국 투자 계획(3년)과 일간 30억 명 이상의 사용자 규모는, 대규모 AI 인프라 수요가 지속될 것임을 시사한다다. 이에 따라 클라우드 임대와 온프레미스 배치를 병행하는 전략은 확장성·비용·보안 측면에서 균형을 추구하는 합리적 선택지로 평가된다다.
정리
더 인포메이션 보도에 따르면, 메타는 구글 TPU 도입을 위해 수십억 달러 지출을 논의 중이며, 내년 클라우드 임대와 2027년 온프레미스 배치라는 단기·중기 로드맵이 거론된다다. 구글은 엔비디아 대안으로서 TPU를 내세우며 엔비디아 매출의 10% 규모를 겨냥하는 청사진을 검토해 온 것으로 전해졌다다. 공식 확인 전 단계인 만큼 세부 조건은 유동적이지만, AI 칩 조달 다변화와 인프라 전략의 이원화라는 큰 흐름은 산업 전반의 구조 변화를 촉발할 수 있다는 점에서 주목된다다.









