마제스틱 랩스(Majestic Labs)가 구글과 메타에서 실리콘 제품을 이끌었던 임원 3인의 주도로 총 $100 million(약 1억 달러)를 조달했다고 밝혔다. 공동 창업자는 오퍼르 샤함(Ofer Shacham), 샤 라비이(Sha Rabii), 마스미 레인더스(Masumi Reynders)로, 이들은 클라우드 기업의 데이터센터 구축 비용을 낮출 수 있는 고용량 AI 서버 기술 개발에 자금을 투입할 계획이라고 밝혔다.
2025년 11월 10일, CNBC뉴스의 보도에 따르면, 마제스틱 랩스는 특허 출원 중인 실리콘 설계 아키텍처를 통해 일반 엔터프라이즈급 서버 대비 메모리 용량을 1,000배로 확장하는 것을 목표로 하고 있다. 공동 창업진은 CNBC에 해당 구조가 메모리 집약적 AI 워크로드에서 병목을 해소해, 동일 면적 내 더 많은 데이터를 처리하고 데이터 이동 비용과 전력을 절감하도록 설계됐다고 설명했다.

마제스틱 랩스는 엔비디아(Nvidia)처럼 칩부터 서버까지 전 스택을 자체 개발하는 전략을 취하지만, 각 서버가 현존 최고 사양의 서버 랙 최대 10대를 대체할 수 있다고 밝혔다. 이는 기업 데이터센터의 공간(footprint)을 줄이고 전력·냉각 비용을 낮춰 총소유비용(TCO) 절감에 기여할 수 있다는 설명이다.
자금 조달 및 투자자 구성
이번 조달은 9월 마감된 시리즈 A 7,100만 달러가 핵심으로, Bow Wave Capital이 주도했으며 Lux Capital 등 다수 투자자가 참여했다. 공동 창업자들은 2023년 말부터 스텔스 모드로 회사를 준비해 왔으며, 11월 10일(현지시간) 총 1억 달러 확보 사실을 공개했다.
빅테크의 AI 인프라 투자 확대
이 소식은 알파벳(Alphabet), 메타, 마이크로소프트(Microsoft), 아마존(Amazon) 등 주요 빅테크가 데이터센터 인프라 중심의 자본지출(capex) 전망치를 상향하는 가운데 나왔다. 이들 4개사의 올해 합산 자본지출은 $380 billion(3,800억 달러)을 넘길 것으로 예상된다. 같은 맥락에서, 구글은 최근 7세대 텐서 프로세싱 유닛(TPU)인 Ironwood를 공개했으며, 앤스로픽(Anthropic)이 Claude 모델에 해당 칩 사용을 계획 중이라고 밝혔다.
메모리 병목을 겨냥한 설계
대형 언어모델(LLM)과 AI 워크로드는 그간 주로 엔비디아의 GPU에 의존해 왔다. 그러나 메모리 용량 제약은 대규모 데이터 처리 기업의 지속적인 과제로 남아 있다. 이에 대해 샤함 CEO는 다음과 같이 말했다.
“엔비디아는 훌륭한 GPU를 만들고 놀라운 AI 혁신을 이끌었다. 우리는 GPU 전반을 대체하려는 것이 아니라, 고정된 연산-메모리 비율이 제약이 되는 메모리 집약적 AI 워크로드를 해결하고자 한다.”
마제스틱 랩스는 하이퍼스케일러와 금융·제약 등 대규모 AI 모델을 운영하는 대기업을 주요 고객군으로 겨냥하고 있다. 회사는 여러 대의 일반 장비와 메모리를 단일 서버로 통합하는 특허 출원 중 아키텍처를 통해 데이터센터 공간 축소, 전력·냉각 수요 저감을 동시에 달성할 수 있다고 주장한다.
제품 로드맵과 사업 확장
마제스틱 랩스는 2027년 일부 고객을 대상으로 박스 서버(box server) 프로토타입을 제공할 예정이라고 밝혔다. 회사는 이미 사전주문(pre-order) 관련 논의를 시작했지만, 고객사는 공개하지 않았다. 현재 임직원 수는 50명 미만이며, 약 절반은 이스라엘 텔아비브, 나머지는 미국 캘리포니아 로스알토스에 근무하고 있다. 회사는 내년에 두 지역 모두에서 채용을 확대하고 추가 투자 유치에도 나설 계획이라고 밝혔다.
창업진 이력과 조직 형성
세 공동 창업자는 구글에서 만나 구글 TPU 개발팀을 함께 세웠다. 샤함은 “우리는 DARPA, 구글, 메타에서 AI를 구축해 왔지만, 어느 순간 AI가 모든 기업에 보편적인 기술이 됐다”며,
“모든 대기업이 AI를 필요로 하게 됐고, 그 시점이 바로 ‘우리 스스로 한번 해보자’고 말할 적기였다.”
레인더스 COO는 2003년 선임 사내 변호사로 구글에 합류했으며, 이후 실리콘 관련 사업개발 및 제품전략을 총괄했다. 그는 15년간 구글에서 근무하며 제품관리 및 실리콘 담당 이사로 승진했다. 라비이 사장은 스탠퍼드대 박사 학위를 취득했고, 2011년 자신의 칩 설계 회사 Arda Technologies를 구글에 매각한 뒤 수석 엔지니어링 디렉터로 재직했다. 그의 지휘 아래 구글은 유튜브 데이터센터용 비디오 칩 ‘Argos’를 출시했다.
샤함은 2013년 8월 자신의 회사 Chip Genesis를 구글에 매각했으며, 당시 구글 실리콘 팀을 이끌던 라비이와 함께 일했다. Chip Genesis 기술은 픽셀(Pixel) 스마트폰의 AI 가속기를 포함한 다수 제품에 폭넓게 적용됐다. 구글에서 샤함은 소비자 하드웨어용 실리콘 설계·구현 총괄로 승진했다.
세 사람은 2018년 구글을 떠나 당시 페이스북으로 알려진 메타에 합류해, 리얼리티 랩스 하드웨어 부문 내 FAST(Facebook Agile Silicon Team)를 구축했다. 샤함은 부사장 겸 FAST 책임자로 올랐다. 2023년 메타가 리얼리티 랩스 조직에서 현금 보전을 이유로 구조조정을 단행했을 때, 샤함은 직접 감원을 집행해야 했다며 다음과 같이 말했다.
“그 일환으로 조직 전반에 걸친 감원이 있었고, FAST도 예외가 아니었다. 기분 좋은 일이 아니며, 하기 힘든 일이었다.”
세 사람은 이후 실리콘과 AI에서 가장 큰 병목이 무엇인지에 대해 아이디어를 모으는 과정에서 마제스틱 랩스를 설립했다. 레인더스는 “우리는 오랫동안 친구이자 동료였다. 함께 흥미로운 일을 해보자는 생각이 늘 주변 시야에 있었다”고 말했다.

마제스틱 랩스는 2026년 이후 본격적인 성장과 채용을 추진할 계획이며, 메타·구글 등에서 함께 일했던 1,500명 이상의 전·현직 동료 네트워크를 인재 영입에 적극 활용할 것이라고 밝혔다. 라비이는 이와 관련해,
“그들은 이미 우리와의 신뢰를 갖고 있다.”
해설: 기술·시장 맥락과 의미
왜 메모리가 핵심인가 — 대형 언어모델(LLM)과 다중 모달 AI는 파라미터와 컨텍스트 창의 지속적 확대 탓에 메모리 대역폭·용량이 성능을 좌우하는 경향이 강하다. GPU의 연산 성능이 충분해도, 메모리에 담기지 않는 데이터는 외부 저장장치와의 교환을 반복하며 지연(latency)과 전력 소모를 키운다. 마제스틱의 1,000배 메모리 설계는 이러한 병목구간을 아키텍처 차원에서 줄이려는 시도로 볼 수 있다.
하이퍼스케일러와 랙 통합 — 랙(rack)은 서버·스토리지·스위치 등을 장착하는 표준화된 철제 프레임이다. 통상 대형 데이터센터는 수천 대 랙 단위로 확장된다. 만약 서버 한 대가 랙 최대 10대를 대체한다면, 설치 면적과 냉각·전력 시스템이 크게 줄어들 수 있다. 이는 전기료·부지·자산배분 등 총소유비용을 좌우하는 핵심 변수다.
GPU vs. TPU vs. 메모리 확장형 서버 — GPU는 범용 대규모 행렬연산에 강점이 있고, TPU는 텐서 연산 특화형 가속기다. 반면 마제스틱이 지향하는 방향은 고정된 연산-메모리 비율을 깨고, 워크로드 특성상 메모리가 지배적인 경우에 성능·비용 효율을 재정의하는 것이다. 이는 GPU 대체가 아닌 보완으로서 이기종 컴퓨팅 전반의 선택지를 넓히는 접근에 가깝다.
용어 설명참고 — 하이퍼스케일러(hyperscaler)는 전 세계적으로 데이터센터를 대규모로 운영·확장하는 클라우드 사업자를 가리킨다. 박스 서버(box server)는 표준화된 폼팩터에 특화 기능을 통합 모듈로 제공하는 완제품 서버를 의미한다. 연산-메모리 비율은 시스템에서 가용한 연산 자원 대비 메모리 용량·대역폭의 상대적 크기를 뜻한다.
핵심 인용
“엔비디아는 훌륭한 GPU를 만들고 놀라운 AI 혁신을 이끌었다. 우리는 GPU 전반을 대체하려는 것이 아니라, 연산-메모리 비율 제약이 걸리는 메모리 집약적 AI 워크로드를 해결하고자 한다.” — 오퍼르 샤함, 마제스틱 랩스 CEO
“그 일환으로 조직 전반에 걸친 감원이 있었고, FAST도 예외가 아니었다. 하기 힘든 일이었다.” — 오퍼르 샤함, 메타 구조조정 당시를 회고
“우리는 오랫동안 친구이자 동료였다. 함께 흥미로운 일을 해보자는 생각이 늘 주변 시야에 있었다.” — 마스미 레인더스, 마제스틱 랩스 COO
“그들은 이미 우리와의 신뢰를 갖고 있다.” — 샤 라비이, 마제스틱 랩스 President
전망
마제스틱 랩스의 1,000배 메모리와 랙 10대 대체 청사진은, AI 학습·추론의 메모리 병목을 푸는 대안으로서 데이터센터 아키텍처 재편 가능성을 시사한다. 2027년 프로토타입이 예고된 만큼, 실제 성능·전력·총비용에서 어느 수준의 균형점을 제시할지가 관건이다. 빅테크의 3,800억 달러 규모 자본지출 사이클 속에서, 마제스틱이 GPU·TPU 중심의 생태계를 어떻게 보완하며 하이퍼스케일러의 인프라 중복투자를 줄여줄 수 있을지 주목된다.











