HIVE Digital Technologies Ltd.(티커: HIVE, HIVE.V)가 100% 자회사인 BUZZ High Performance Computing(이하 BUZZ)을 통해 Dell Technologies와 차세대 AI 인프라 구축을 위한 신규 협약을 체결했다고 발표했다. 이에 따라 BUZZ는 캐나다 통신사 Bell과 공동으로 추진 중인 ‘BUZZ-Bell AI Fabric’의 1단계 배치에 착수한다다.
2025년 11월 17일, RTT뉴스의 보도에 따르면, 이번 협약은 BUZZ가 액체 냉각 방식의 Dell PowerEdge XE9680L 서버로 구성된 63노드 클러스터를 도입하는 내용을 담고 있다. 해당 시스템은 AI 작업负荷에 최적화된 차세대 GPU 504개로 구동되며, 통합형 Dell IR5000 랙 형태로 제공·설치될 예정이다. 설치 장소는 Bell AI Fabric 데이터센터로, 이를 통해 BUZZ와 Bell 간 파트너십을 강화하고 BUZZ의 소버린(Sovereign) AI 클라우드 역량을 확장하게 된다다.
BUZZ는 Bell AI Fabric 시설 외에도 캐나다와 스웨덴에서 자체 설계한 고효율 액체 냉각 데이터센터 구축을 병행하고 있다. 장기 조달이 필요한 핵심 부품(long-lead components)은 이미 구매를 진행 중이며, 가동 시점은 2026년 하반기로 계획돼 있다다. 캐나다와 스웨덴 각 사이트는 Bell AI Fabric 시설과 더불어 GPU 2,000개씩을 수용하도록 설계되며, 이에 따라 BUZZ의 AI 클라우드는 2026년 말까지 총 6,000개 이상의 GPU를 확보하게 될 전망이다다.
재무 및 수익성 전망 측면에서, 이번 확장 계획은 연간 반복 매출(ARR) 1억2,000만 달러를 추가로 창출할 것으로 예상된다. 특히 전력·데이터센터 비용을 반영한 영업 마진이 80%에 달한다는 점이 주목된다다. 이는 현재 BUZZ의 ARR 2,000만 달러에 더해지는 규모로, 회사의 AI 클라우드 사업 경쟁력을 유의미하게 강화할 것으로 보인다다.
한편, BUZZ는 이미 5,000개 GPU를 운영 중이며, 2026년까지 총 1만1,000개 GPU로 확대한다는 목표를 제시했다다. 추가로, HIVE가 캐나다 뉴브런즈윅주 그랜드 폴스에 보유한 70MW 규모의 Tier I 데이터센터(부지 면적 32.5에이커)는 Tier III+ 등급(PUEPower Usage Effectiveness 1.3)으로 업그레이드가 진행 중이다다. 업그레이드가 완료되면, 참고 아키텍처 기준으로 해당 부지는 GPU 2만5,000개 이상을 수용할 수 있게 된다다.
핵심 수치 요약
– 노드 수: 63개 (액체 냉각 PowerEdge XE9680L)
– GPU 수: 504개(초기 클러스터), 2026년 말까지 6,000+개(클라우드), 총 11,000개 목표
– 데이터센터 업그레이드: Tier III+, PUE 1.3
– 추가 ARR: 1억2,000만 달러, 현재 ARR: 2,000만 달러, 영업 마진: 80%
기술·인프라 세부
Dell PowerEdge XE9680L은 고밀도 GPU 가속 서버로, 한 노드당 8개의 최상위급 GPU 구성을 지원하는 것이 일반적이다다. 이번 구축에서 63노드 × 8GPU = 504GPU라는 구성 논리가 확인되며, 이는 대규모 생성형 AI 모델 학습과 고성능 추론 워크로드에 적합한 형태다다. IR5000 랙은 공장 통합형 랙 솔루션으로, 전력·냉각·케이블링이 최적화된 상태로 제공돼 현장 설치 시간을 단축하고 품질 일관성을 높이는 데 유리하다다.
액체 냉각(liquid-cooled)은 공냉 대비 열전달 효율을 높이고 전력 사용량과 소음을 감소시키는 방법으로, 고밀도 GPU 팜에서 운영비용(OPEX) 절감과 에너지 효율 향상에 직결된다다. PUE 1.3은 투입 전력 대비 IT 장비로 전달되는 효율이 높은 편에 속하는 지표로, 탄소 배출 저감과 에너지 비용 안정화에 기여할 수 있다다.
Tier III+ 업그레이드는 N+1 이중화와 유지보수 중단 없는 운영을 목표로 하는 등급 체계를 의미한다. 이는 클라우드 서비스 수준(SLA)과 고가용성을 중시하는 AI 훈련·추론 환경에서 중요하며, 특히 소버린 AI 클라우드 전략과 결합될 때 데이터 주권과 컴플라이언스 요건을 충족하기 쉬워진다다.
사업 전략 및 의미
이번 HIVE–BUZZ–Dell–Bell의 다자 협력은 하드웨어 조달–데이터센터 인프라–클라우드 서비스까지 수직 계열화된 확장을 가속화한다다. 63노드 초기 배치는 Bell AI Fabric 내에서 즉시 사용 가능한 AI 컴퓨팅 풀을 제공하며, 이어지는 캐나다·스웨덴 거점의 2,000 GPU 증설 계획은 지리적 다변화를 통해 레이턴시·규제·전력 리스크를 분산하는 효과가 있다다.
ARR 1억2,000만 달러와 80% 영업 마진 가이던스는, 전력비·호스팅비가 커지는 AI 인프라 시장에서도 고밀도·고효율 설계가 수익성을 견인할 수 있음을 시사한다다. 특히 액체 냉각과 PUE 1.3 달성 목표는 에너지 단가 변동과 열 밀도 증가라는 구조적 난제를 엔지니어링 해법으로 풀겠다는 접근으로 해석된다다.
또한 총 1만1,000개 GPU(2026년 목표)와 그랜드 폴스 부지의 2만5,000개 이상 수용 가능성은, 대형 모델 학습뿐 아니라 멀티 테넌트 추론, RAG, 에이전트형 워크로드 등 복합 수요를 포괄할 수 있는 규모의 확장 경로를 제시한다다. 다만 GPU 아키텍처 세부 및 네트워킹 패브릭(예: 인피니밴드/이더넷 고속 패브릭)은 기사에서 구체적으로 언급되지 않았으므로, 실제 성능·효율은 향후 배치 세부가 공개될 때 더욱 명확해질 것으로 보인다다.
용어 풀이 및 배경
– GPU: 그래픽처리장치로, 병렬 연산에 강점이 있어 딥러닝 학습·추론에 활용된다다.
– ARR(Annual Recurring Revenue): 연간 반복 매출로, 구독형·사용량 기반 클라우드 비즈니스의 매출 안정성을 보여주는 지표다다.
– Sovereign AI Cloud: 데이터 주권과 지역 규제 준수를 중시하여, 특정 관할 내 데이터 보관·처리를 보장하는 형태의 AI 클라우드를 의미한다다.
– Tier III+: 데이터센터 신뢰성 등급 중 하나로, N+1 이중화와 계획 정지 없는 유지보수를 목표로 한다다.
– PUE 1.3: 데이터센터의 전력 효율 지표로, 1.0에 가까울수록 비IT 부문 전력 손실이 적다다.
– 액체 냉각: 냉각수·냉매 등을 활용해 열 제거 효율을 높이는 방식으로, 고밀도 GPU 서버에 적합하다다.
– IR5000 랙: Dell의 사전 통합형 랙 솔루션으로, 전력·냉각·배선이 사전 검증된 상태로 공급된다다.
전망
요약하면, HIVE와 BUZZ는 Dell의 XE9680L 플랫폼과 IR5000 랙, Bell의 AI Fabric 인프라를 결합해 단기간 내 컴퓨팅 자원을 증설하고, 캐나다·스웨덴으로 지역 거점을 확장함으로써 2026년까지 6,000+ GPU의 클라우드와 1만1,000 GPU 총량 목표를 제시했다다. 1억2,000만 달러 ARR과 80% 마진 가이던스는 고밀도·고효율 설계의 경제성을 뒷받침하며, Tier III+·PUE 1.3 목표는 운영 신뢰성과 에너지 효율을 동시에 겨냥한다다. 해당 계획이 일정대로 이행될 경우, BUZZ의 AI 클라우드 경쟁력은 규모의 경제와 서비스 품질 양 측면에서 강화될 것으로 평가된다다.







