왜 연말에 메모리 가격이 급등했나

AI 수요와 소프트웨어 변화가 촉발한 DRAM·NAND 가격 급등의 배경

메모리 가격이 최근 몇 달 사이 급등했다. 핵심 원인은 인공지능(AI) 워크로드가 폭증하면서 글로벌 하이퍼스케일러초대형 클라우드 사업자들이 예상치를 크게 웃도는 규모의 DRAMNAND를 사들였기 때문이다. AI 인프라 확대로 설명되는 단순한 데이터센터 증설을 넘어, 각 GPU가 소모하는 메모리의 절대량이 구조적으로 점프하는 변화가 진행 중이다.

2025년 11월 30일, 인베스팅닷컴의 보도에 따르면, AI 연계 수요는 단순한 센터 증설 논리로 설명되지 않는다. 최근의 수요 변화는 소프트웨어 스택의 업데이트모델 아키텍처의 진화가 결합해, GPU 한 대당 필요 메모리를 단계적으로 끌어올리는 방식으로 나타난다. 그 결과, 각 클러스터에 투입되는 DRAM과 NAND의 총량이 빠르게 늘고 있다.

주요 촉매 중 하나는 엔비디아 CUDA의 신규 버전이다. CUDA 12.8CUDA 13.0시스템 전반의 더 큰 메모리 풀을 GPU가 활용하도록 지원한다. 이 기능은 GPU 메모리와 CPU 메모리를 하나의 통합된 공간처럼 취급하게 해, 오버서브스크립션물리적 용량을 초과하는 논리 메모리 할당을 용이하게 만들고, 개발자들이 훨씬 더 큰 작업 집합을 배정하도록 유인한다.

이로 인해 AI 서버는 백그라운드에서 더 많은 DRAM을 필요로 하며, 페이징과 모델 데이터 저장을 위한 SSD 용량 또한 대폭 증설해야 한다. 즉, 시스템 메모리 계층 전체가 한 단계 넓어지고 두터워지는 흐름이다.


컨텍스트 윈도 확장과 저장장치 처리량의 재정의

대규모 언어모델(LLM)컨텍스트 윈도가 급격히 확장된 점도 판도를 바꿨다. 입력 토큰 수가 수십만 단위에 이르는 시점으로 진입하면서, 메모리가 사실상 최대 병목으로 떠올랐다. 더 긴 시퀀스를 처리하려면 중간 연산 데이터를 담을 VRAM 수요가 기하급수적으로 늘고, VRAM이 넘칠 경우 시스템은 호스트 RAM이나 SSD로 오프로딩한다.

하이퍼스케일러들은 이 계층적 메모리 구조를 대규모로 채택해 왔다. 특히 NVMe 드라이브시스템 메모리의 확장처럼 활용하는 방식이 자리 잡았다. 이는 GPU-호스트-스토리지 간의 데이터 이동을 전제로 한 아키텍처이며, 결과적으로 DRAM과 고성능 NAND 모두에 대한 구매 압력을 키운다.

컨텍스트가 길어질수록 저장장치에 요구되는 처리량(throughput)도 높아진다. 대형 프롬프트를 실시간으로 읽어들이고 동시에 다수 사용자의 요청을 병행 처리하려면, 빠르고 대용량인 NAND가 필수다. 현대적 추론(inference) 워크로드는 모델 파라미터와 데이터베이스 전반에 걸쳐 빈번한 랜덤 읽기가 발생하는데, 이는 하드디스크(HDD)보다 SSD가 월등히 유리한 영역이다.

이 같은 특성 변화는 클라우드 제공업체들에게 고성능 NAND 기반의 플래시 스토리지 풀을 확대하도록 압박하고 있다. 일관된 저지연과 높은 IOPS를 보장하려면, 플래시 중심의 저장 인프라가 사실상 표준이 되는 흐름이다.


CUDA·알고리즘 진화가 메모리 부담을 줄이면서도, 결국 더 큰 워크로드를 가능케 하다

BofA 애널리스트들CUDA의 개선새로운 어텐션 알고리즘이 일부 메모리 오버헤드를 낮추고 있다고 평가한다. 그러나 동시에 이러한 진전은 더 큰 규모의 워크로드를 가능하게 만들어, 결과적으로 전체 메모리 수요를 다시 끌어올리는 방향으로 작용한다.

GPU가 더 긴 시퀀스를 다룰수록, 기반 시스템SSD로부터 더 많은 데이터 스트리밍을 뒷받침해야 한다. 또한 멀티 GPU 설계거대 모델과 확장된 컨텍스트다수 가속기에 분산시키는 과정에서, 풀링된 메모리의 수요를 키우고 플래시로의 데이터 이동을 더욱 증가시킨다.

핵심: ‘소프트웨어 최적화’는 단기적으로 메모리 효율을 개선하지만, 장기적으로는 더 크고 복잡한 모델 운용을 현실화해 총수요를 다시 확대하는 경향을 보인다.


동시에 회복한 전자시장 수요, 메모리의 ‘슈퍼사이클’ 서막

광범위한 전자산업 수요가 같은 시기에 반등한 점도 결정적이었다. AI 수요가 공급을 죄어놓은 바로 그 순간, PC·스마트폰·전통적 데이터센터 지출도 회복세를 보였다. 그 결과, AI와 연동된 NAND·DRAM 수요 급증재고를 얇게 만들고, 가격을 가파르게 밀어 올리는 구조가 형성됐다.

인베스팅닷컴은 이를 가리켜 메모리에 대한 ‘슈퍼사이클’이 도래한 것으로 평가했다.

정리하면, 소프트웨어 스택 혁신(CUDA 12.8·13.0), LLM 컨텍스트 윈도의 비약적 확대, 멀티 GPU·플래시 중심 아키텍처, 그리고 범용 전자시장 수요 회복동시에 맞물리며 메모리 가격 급등을 촉발했다.


용어로 풀어보는 핵심 포인트

하이퍼스케일러: 초대형 클라우드 사업자를 의미한다. 대규모 데이터센터와 네트워크를 통해 AI 학습·추론 서비스를 제공하며, DRAM·NAND의 최대 수요처로 자리 잡았다.

DRAM·NAND: DRAM은 휘발성 메모리로, 고속 연산과 작업 집합을 담는 데 쓰인다. NAND는 비휘발성 플래시로, 대용량 데이터 저장과 빠른 임의 접근에 유리해 NVMe SSD의 핵심 구성 기술이다.

CUDA 12.8·13.0: GPU와 CPU 메모리를 통합 주소 공간처럼 활용하는 기능을 강화했다. 이로써 오버서브스크립션대형 작업 집합 운영이 쉬워져, 서버 단의 DRAM·SSD 수요가 동반 확대되는 경향이 나타난다.

컨텍스트 윈도: LLM이 한 번에 참고하는 입력 시퀀스의 길이를 뜻한다. 수십만 토큰으로 확장되면, 중간값·키-값 캐시 등을 담을 메모리 요구가 폭증하고, VRAM 초과분을 호스트 RAM·SSD로 오프로딩하는 빈도가 높아진다.

NVMe 기반 플래시: 고성능 NAND를 활용한 SSD 인터페이스로, 낮은 지연과 높은 병렬 처리를 제공한다. 랜덤 읽기가 잦은 추론 워크로드에 적합해, HDD 대비 우월한 성능으로 클라우드의 플래시 스토리지 풀 확대를 이끈다.


기자 해설: ‘효율’의 진보가 ‘규모’의 확대를 부른 역설

관전 포인트는 명확하다. 소프트웨어와 알고리즘의 효율 개선은 단기적으로 메모리 사용량을 줄여줄 수 있다. 그러나 기업들은 그 여유분을 즉시 더 긴 컨텍스트더 큰 모델로 전환하는 경향이 강하다. 이른바 ‘효율의 배당’이 곧바로 성능·품질의 확대로 재투자되면서, 총 메모리 수요는 오히려 상승하는 구조가 된다. 이번 가격 급등은 바로 그 현실적 결과를 반영한다.

또한 멀티 GPU 및 풀링 메모리의 보편화는, 노드 간 데이터 이동스토리지 스트리밍을 전제로 한다. 이때 병목을 해소할 유일한 선택지가 고성능 DRAM과 고속 NAND라는 점에서, 메모리 계층 전체의 동시 증설은 피하기 어렵다. 여기에 범용 IT 수요의 회복이 겹치며, 시장은 가격 탄성보다 물량 제약에 더 민감하게 반응하는 단계에 진입했다.

결론적으로, 연말 메모리 가격 급등은 일시적 변동이라기보다, AI 중심 컴퓨팅 구조 재편소프트웨어 스택의 진화, 그리고 전자산업 사이클 회복이 합쳐진 구조적 리프팅에 가깝다. 인베스팅닷컴 보도 내용에서 드러나듯, 이 흐름은 DRAM·NAND의 동반 타이트닝가격 강세로 귀결되고 있다.