SK하이닉스가 인공지능(AI) 가속용 고대역폭 메모리(High-Bandwidth Memory, HBM) 시장이 2030년까지 연평균 30%씩 성장할 것이라고 내다봤다.
2025년 8월 11일, 인베스팅닷컴 보도에 따르면, 회사의 HBM 사업기획을 총괄하는 최준용 담당임원은 인터뷰에서 “AI 최종 수요는 매우 견고하다”며 낙관적 입장을 밝혔다.
최 임원은 “AI 구축과 HBM 구매 간의 관계는 매우 직선적이다”라며, 메모리 가격 상승 우려에도 불구하고 HBM 수요가 강하다고 강조했다. 그는 아마존·마이크로소프트·알파벳 구글 등 글로벌 클라우드 기업들이 계획한 수십억 달러 규모의 AI 투자액이 추가 상향될 가능성이 높다고 덧붙였다.
HBM은 2013년 첫 양산된 이후 칩을 수직 적층해 단위 면적당 용량을 높이고 전력 소모를 줄이는 기술이다. 고성능 GPU 및 AI 가속기와 결합해 대규모 데이터를 빠르게 처리한다는 점에서 차세대 AI 인프라의 핵심 부품으로 부상했다.
용어 설명: HBM은 기존 DDR 계열 메모리 대비 대역폭을 대폭 확장한 패키지 형태다. 여러 개의 DRAM 다이를 3차원으로 쌓아 실리콘 관통 전극(Through-Silicon Via, TSV)으로 연결하며, 패키지 상단에 배치되는 인터포저를 통해 데이터 전송 지연을 최소화한다. 로직 다이는 메모리 제어·에러 정정·온도 관리 등 기능을 관장하는 별도의 회로로, 차세대 HBM4부터 고객 요구에 맞추어 맞춤 설계가 가능하다.
최 임원은 “우리가 제시한 성장률은 에너지 가용성 등 제약까지 감안한 보수적 수치”라고 밝혔다. 그는 “AI 자본 지출(CapEx)이 증가할수록 HBM 필요량도 비례해 늘어난다”고 설명했다.
메모리 업계 전략 변화
현재 SK하이닉스, 삼성전자 및 마이크론 테크놀로지는 차세대 HBM4를 개발 중이다. 이 제품군에는 고객 맞춤형 로직 다이가 포함돼 메모리 기능 관리와 전력 효율을 극대화할 전망이다.
업계 전문가들은 HBM 시장 규모가 2030년 ‘수십억 달러(tens of billions of dollars)’ 수준에 이를 것으로 본다. 최 임원 또한 “AI 수요가 예상보다 가파르게 늘 경우 시장 잠재력은 더 커질 수 있다”고 말했다.
SK하이닉스의 이번 전망은 메모리 업황이 ‘슈퍼사이클’에 접어들 것이란 기대감을 자극한다. 다만 그는 전력 인프라 확충과 칩 패키징 용량이 병목이 될 수 있다는 점도 언급하며, 성장세가 무제한은 아니라고 선을 그었다.
아울러 기사 말미에는 “본 기사는 AI의 도움으로 작성됐으며 편집자의 검수를 거쳤다”고 명시됐다.
ⓒ 2025 Investing.com. 무단 전재 및 재배포 금지.