타이베이 — 폭스콘(Hon Hai)이 엔비디아와 함께 건설 중인 14억달러(USD) 규모의 슈퍼컴퓨팅 센터가 2026년 상반기에 가동 준비를 마칠 예정이라고 금요일 밝혔다. 완공 시 이 센터는 대만 최대의 첨단 GPU 클러스터가 될 예정이라고 회사는 설명했다다.
2025년 11월 21일, 로이터 보도에 따르면, 이 프로젝트는 폭스콘이 데이터센터와 전기차(EV), AI 인프라로 사업을 다각화하는 전략의 핵심 축으로, 엔비디아의 차세대 Blackwell GB300 칩으로 구동되는 27메가와트(MW)급 데이터센터로 설계됐다. 폭스콘이 AI 슈퍼컴퓨팅 및 클라우드 운영을 위해 신설한 조직 Visonbay.ai의 CEO 네오 야오(Neo Yao)는 이 시설이 아시아 최초의 GB300 AI 데이터센터가 될 것이라고 밝혔다다.
엔비디아 부사장 알렉시스 비요를린(Alexis Bjorlin)은 폭스콘의 ‘테크 데이(Tech Day)’ 행사에서 “GPU 기술의 가속이 이어지면서 개별 시설을 직접 구축하는 방식은 더 이상 경제성이 없을 수 있다”고 말했다. 이날 행사에는 엔비디아, 오픈AI(OpenAI), 우버(Uber)를 포함한 폭스콘의 파트너 및 고객사가 참석했다다.
비요를린은 이어 “컴퓨팅 자원을 임대하는 모델이 투자수익률(ROI) 측면에서 훨씬 유리할 수 있으며, 제품 및 비즈니스 사이클에 맞춰 컴퓨팅 규모를 유연하게 조정할 수 있게 해준다”고 설명했다다.
애플 아이폰의 최대 조립업체로 알려진 폭스콘은 전통적인 전자제품 위탁생산을 넘어 전기차와 AI 데이터센터로 영업 영역을 확장하고 있다. 현재 폭스콘은 엔비디아의 AI 랙(AI 작업負荷에 특화된 서버 랙)의 주요 제조사로, 칩과 케이블, 전원/냉각 및 네트워킹 장비 등을 집적한 랙 단위를 공급하고 있다다.
데이터센터 투자가 급증하는 환경에서, 클라우드 컴퓨팅 기업들이 AI 인프라와 연구 역량을 확장하기 위해 수십억달러를 지출하면서 폭스콘은 수혜 기업으로 부상했다. 폭스콘은 지난주 AI 관련 수요에 대해 낙관적 전망을 내놓으며, 해당 수요가 2026년 성장의 핵심 동력이 될 것이라고 밝혔다다.
영 리우(Young Liu) 폭스콘 회장은 행사에 앞서 금요일에 공개된 로이터 인터뷰에서, 폭스콘이 매년 20억~30억달러를 AI에 투자할 것이라고 말했다다.
테크 데이 행사에는 폭스콘 창업자 테리 궈(Terry Gou)도 모습을 드러냈다. 엔비디아의 로보틱스 핵심 제품 라인의 제품군 매니저이자 엔비디아 창업자 젠슨 황(Jensen Huang)의 아들인 스펜서 황(Spencer Huang)도 참석했으며, 엔비디아가 폭스콘과 협력해 AI를 공장 및 제조 라인에 도입하는 작업을 진행 중이라고 밝혔다다.
리우 회장은 현재 폭스콘이 주당 1,000대 규모의 AI 랙 제조 역량을 갖췄으며, 내년에 이 생산 속도가 더 높아질 것으로 예상한다고 설명했다다.
또한 그는 폭스콘의 전기차(EV) 물량이 자동차 제조사가 생산 아웃소싱을 확대할 수 있는 수준에 근접했다고 밝혔고, 폭스콘 최고전략책임자(CSO) 세키 준(Jun Seki)은 무대에서 회사의 전기차 ‘모델 A(Model A)’를 공개했다다.
리우 회장은 모델 A가 일본 엔지니어들이 설계했으며, 폭스콘이 일본 고객사를 지원하기 위한 현지 법인 설립을 장기적으로 추진할 계획이라고 말했다. 그는 이어 모델 A는 결국 일본에서도 생산될 것이라고 덧붙였다다.
핵심 용어 풀이와 맥락
GPU 클러스터는 다수의 그래픽처리장치(GPU)를 네트워크로 묶어 대규모 병렬 연산을 수행하는 집합체다. 대형 언어모델(LLM) 학습과 고성능 추론, 로보틱스 제어, 시뮬레이션 등 고부하 AI 작업을 처리하는 데 필수적이다다.
AI 랙은 칩과 네트워킹, 스토리지, 전력/냉각 등 AI 워크로드에 최적화된 구성 요소를 표준 랙 규격에 집적한 하드웨어 단위를 의미한다. 랙 단위 공급은 데이터센터 구축의 속도와 일관성을 높이며, 대규모 확장 시 TCO(총소유비용) 관리를 용이하게 한다다.
엔비디아 Blackwell GB300은 엔비디아의 차세대 AI 가속기 계열로, 전 세대 대비 AI 모델 학습과 추론 효율을 높이는 것을 목표로 설계된 아키텍처다. 본 기사에서 언급된 센터는 GB300 기반으로 구동되며, 아시아 최초의 GB300 AI 데이터센터로 자리매김할 전망이다다.
27메가와트(MW)는 데이터센터가 소비하거나 처리 가능한 전력 용량의 규모를 가리킨다. 수십 메가와트급 데이터센터는 고밀도 GPU 랙을 대량 수용하는 데 필요한 전력·냉각 인프라를 필요로 하며, 전력 안정성과 열 관리가 핵심 운영 과제로 꼽힌다다.
컴퓨팅 임대(Compute-as-a-Service) 모델은 기업이 자체 시설을 건설하지 않고 필요한 시점에 필요한 규모의 연산 자원을 빌려 쓰는 방식이다. 이는 투자 회수 기간을 단축하고, 제품 주기와 비즈니스 사이클에 맞춰 유연하게 확장·축소할 수 있다는 점에서 관심을 모은다다.
의미와 파급효과: 폭스콘-엔비디아-대만의 삼각 구도
이번 프로젝트는 대만의 AI 연산 허브로서의 위상을 한층 강화할 수 있는 매개체다. 첨단 GPU 클러스터의 집적은 반도체 설계·제조 생태계와 결합될 때 AI 연구·개발 속도를 높이고, 글로벌 클라우드·플랫폼 기업의 현지 인프라 수요를 끌어들이는 효과를 낳을 수 있다다.
폭스콘 입장에서는 전통적인 전자 위탁생산(EMS)에서 AI 인프라 제조·운영으로 포트폴리오를 확대하는 전환점이다. AI 랙의 주력 공급자로서 생산 능력을 주당 1,000대까지 끌어올렸다는 점, 그리고 매년 20억~30억달러 규모의 AI 투자 계획은 규모의 경제와 수직 통합의 장점을 동시에 겨냥한 행보로 해석된다다.
엔비디아 측면에서는 GB300 세대로의 전환기가 본격화되는 가운데, 표준화된 랙 단위 공급망을 폭스콘과 함께 다지는 것이 시장의 확산 속도와 배치 일관성을 높이는 데 유리하다. 특히 “직접 건설보다 임대”라는 메시지는 대형 고객뿐 아니라 중견 기업과 연구기관의 접근성을 높이는 신호로 읽힌다다.
한편, 전기차(EV) 사업에서의 시그널도 병행됐다. 세키 준 CSO가 무대에서 공개한 모델 A는 일본 엔지니어 설계라는 점을 강조했고, 리우 회장은 일본 고객을 위한 현지 법인 설립 계획과 더불어 일본 내 생산 가능성도 예고했다. 이는 제조 아웃소싱 확대가 가능한 임계점에 도달하고 있음을 시사한다다.
전망과 체크포인트
전망 측면에서, 2026년 상반기 가동 목표의 GB300 기반 센터는 AI 수요 사이클과 맞물려 폭스콘의 성장 스토리를 견인할 가능성이 있다. 클라우드 및 플랫폼 기업의 AI 인프라 투자가 지속되는 가운데, 임대형 컴퓨팅 모델은 고객의 초기 투자 부담을 줄여 수요 저변을 넓힐 수 있다다.
체크포인트로는 대규모 전력·냉각 인프라의 안정적 확보, 장비 수급과 공급망 일정, 프로젝트의 단계별 안전·인허가, 그리고 경쟁사의 동향 등이 꼽힌다. 또한 제조 라인의 AI 도입을 둘러싼 표준화·상호운용성 문제가 해소될수록, 엔비디아-폭스콘의 팩토리 AI 협력 구상은 더욱 탄력을 받을 수 있다다.
결론적으로, 이번 14억달러 규모 대만 슈퍼컴퓨팅 클러스터는 폭스콘의 사업 포트폴리오 전환과 엔비디아의 차세대 아키텍처 확산, 대만의 AI 인프라 위상이 교차하는 접점에 서 있다. GB300, 27MW 데이터센터, AI 랙 주당 1,000대 생산이라는 키워드는, 2026년을 기점으로 전개될 AI 인프라 경쟁의 방향성을 드러내는 지표로 해석된다다.











