메모리 반도체 종목이 하락했다. 전반적인 기술주 강세 속에서도 메모리 관련주는 약세를 보였으며, 이는 구글이 발표한 새로운 압축 알고리즘인 ‘TurboQuant’가 인공지능(AI) 시스템의 메모리 수요를 줄일 가능성이 제기된 영향으로 풀이된다.
2026년 3월 25일 13시 48분 09초, 인베스팅닷컴의 보도에 따르면, SanDisk Corporation(티커: SNDK)은 5.7% 하락했고, Micron Technology(티커: MU)는 3% 하락했다. Western Digital(티커: WDC)은 4.7% 떨어졌고, Seagate Technology(티커: STX)도 4% 하락했다. 이같은 개별 종목의 조정에도 불구하고 나스닥 100 지수는 상승 마감했다.
구글은 발표문에서 TurboQuant가 키-값 캐시(key-value cache)를 별도의 훈련이나 미세조정 없이도 3비트(3 bits)로 압축할 수 있으며 모델 정확도를 유지한다고 밝혔다. 오픈소스 모델인 Gemma와 Mistral에 대한 테스트에서는 키-값 메모리 크기를 6배까지 줄일 수 있었다고 전했다. 또한 H100 GPU 가속기에서는 비양자화(unquantized)된 키에 비해 최대 8배의 성능 향상이 확인되었다고 보고했다.
구글이 제시한 기술적 구성은 두 단계로 나뉜다. 첫째는 PolarQuant을 적용해 데이터를 회전(rotation)시킨 뒤 고품질의 압축을 수행하는 방식이고, 둘째는 잔여 오차(residual error)를 제거하기 위해 Quantized Johnson-Lindenstrauss 알고리즘을 사용하는 방법이다. 구글은 전통적인 벡터 양자화(vector quantization) 방법이 메모리 오버헤드로 숫자당 1~2비트를 추가하는 문제가 있어 압축 이득의 일부가 상쇄된다고 지적했다.
구글은 TurboQuant을 ICLR 2026에서 발표할 예정이며, PolarQuant은 AISTATS 2026에서 별도로 소개될 예정이다. 테스트 벤치마크로는 LongBench, Needle In A Haystack, ZeroSCROLLS, RULER, L-Eval 등 다양한 기준이 사용됐다. 구글은 이 기술이 대규모 AI 모델뿐만 아니라 대규모 검색엔진을 지원하는 벡터 검색(vector search) 분야에도 적용 가능하다고 밝혔다.
기술 용어 설명
키-값 캐시(key-value cache): AI 모델에서는 자주 참조되는 정보(예: 이전 입력의 일부 표현)를 빠르게 꺼내 쓸 수 있도록 메모리에 저장하는 임시 저장 영역이다. 이 캐시는 모델 응답 속도와 비용 측면에서 중요한 역할을 한다. 벡터 양자화(vector quantization): 연속적인 실수 벡터를 더 적은 비트로 표현해 저장 공간을 줄이는 기술이다. ‘비트(bit)’는 데이터 표현의 최소 단위로, 비트 수가 줄어들수록 저장 용량은 줄지만 정보 손실이나 정밀도 문제가 발생할 수 있다. H100 GPU: 엔비디아의 고성능 데이터센터용 가속기 중 하나로, 대형 AI 모델의 연산과 메모리 접근 성능을 좌우하는 핵심 하드웨어다.
왜 메모리주가 민감한가?
올해 들어 메모리 반도체주는 상당한 폭으로 상승했다. 그만큼 수요에 대한 기대가 높아진 상황에서 메모리 사용량을 획기적으로 낮출 수 있는 기술이 등장하면 실수요 감소 가능성이 주가에 빠르게 반영될 수 있다. 특히 AI 서비스 사업자들이 모델 운영 비용을 낮추기 위해 메모리 효율 기술을 도입하면 DRAM, HBM, NAND 등 메모리 제품에 대한 수요 구조가 달라질 우려가 있다.
시장 영향과 향후 시나리오
단기적으로는 연구 결과 발표에 따른 심리적 영향으로 메모리 관련주가 조정받는 현상이 나타났다. 그러나 실제 수요 감소로 이어지기까지에는 기술 검증, 소프트웨어·하드웨어 통합, 상용화 등의 시간이 필요하다. 구글이 제시한 성능 및 압축 수치(예: 키-값 메모리 6배 축소, H100에서 최대 8배 성능 향상)는 연구 결과 기반의 수치이므로, 데이터센터 및 클라우드 사업자가 전체 인프라에 적용하기까지는 점진적인 전환이 예상된다.
중장기적으로는 두 가지 경로가 가능하다. 첫째, TurboQuant과 유사한 기술이 빠르게 채택되면 모델당 필요 메모리가 줄어들어 메모리 수요 성장률 둔화와 가격 하락 압력이 발생할 수 있다. 둘째, 메모리 당 비용이 낮아지면 AI 서비스의 확장과 더 큰 모델 운영이 촉진되어 결과적으로 총 메모리 소비량이 증가할 수 있다. 즉, 단순한 수요 감소만을 예단하기 어렵고, 모델의 대형화와 서비스 확장이라는 효과와 상쇄 관계를 이룰 가능성도 존재한다.
투자자 관점의 실무적 시사점
투자자와 기업 경영진은 기술의 실사용 사례(프로덕션 적용 여부), 벤치마크 재현성, 하드웨어 업체들과의 협업(예: 엔비디아 H100 튜닝 지원 여부), 오픈소스 커뮤니티의 수용도 등을 면밀히 관찰해야 한다. 또한 메모리 업체들은 단기 주가 변동성 관리와 함께 중장기 제품 포트폴리오 재편(HBM과 같은 고대역폭 메모리 vs. 저비용 대용량 NAND 등)에 대한 전략을 검토할 필요가 있다.
결론
구글의 TurboQuant 발표는 메모리 집약적 AI 워크로드에 대한 비용 구조를 재검토하게 하는 계기다. 발표 시점의 주가 하락은 연구 성과가 시장에 미칠 잠재적 영향을 반영한 즉각적 반응으로 보인다. 다만 실제로 메모리 수요와 가격에 실질적 영향을 미치려면 기술의 상용화와 채택 속도, 그리고 AI 생태계 전반의 반응을 종합적으로 고려해야 한다. 투자자는 향후 ICLR 2026 및 AISTATS 2026의 발표 내용과 현업 적용 사례를 주의 깊게 모니터링할 필요가 있다.
