삼성전자가 차세대 고대역폭 메모리(HBM4) 칩을 인공지능(AI) 분야 선도 기업인 OpenAI에 공급할 계획이라고 로이터 통신이 보도했다. 해당 칩은 ChatGPT를 개발한 OpenAI가 자체 개발한 첫 번째 AI 프로세서에 탑재될 예정이다.
2026년 3월 19일, 로이터 통신의 보도에 따르면, 삼성전자는 OpenAI의 데이터센터 수요를 충족하기 위해 작년에 메모리 칩 공급에 관한 의향서(LOI)를 체결한 바 있다. 이번 보도는 업계 관계자들을 인용하며 구체적 공급 규모와 시점 등을 전했다.
보도 된 주요 내용은 다음과 같다.
첫째, 삼성전자는 올해 하반기에 OpenAI에 최대 800억 기가비트(800 million gigabits)에 달하는 12층 구조의 HBM4 칩을 공급할 계획이라고 신문은 익명의 업계 소스를 인용해 보도했다. 이 수치는 메모리 용량 기준으로 표기된 것이며, 고성능 AI 워크로드를 수용하기 위한 대규모 물량이다.
둘째, HBM4 칩은 OpenAI의 첫 자체 AI 프로세서와 결합될 예정이며, 해당 프로세서는 브로드컴(Broadcom)과의 협업으로 개발된 맞춤형 칩이다. 이 맞춤형 AI 칩은 대만의 파운드리인 TSMC(Taiwan Semiconductor Manufacturing Co.)에서 3분기부터 제조될 것으로 알려졌으며, 연말까지 출시를 목표로 하고 있다고 보도는 전했다.
셋째, 지난해 OpenAI는 브로드컴과 파트너십을 맺어 자체 AI 프로세서를 생산하기로 했으며, 이는 OpenAI가 급증하는 서비스 수요를 충족하기 위해 컴퓨팅 파워를 확보하려는 노력의 일환이다.
넷째, 삼성전자는 또한 AMD(Advanced Micro Devices)와의 전략적 파트너십을 확장하는 양해각서를 체결했다. 이 합의에 따라 삼성전자는 AMD의 차기 AI GPU에 장착될 HBM4 칩의 핵심 공급사 역할을 담당할 계획이다.
보도는 삼성전자가 해당 사안에 대해 즉각적인 공식 입장을 내지 않았다고 전했으며, OpenAI도 통상 영업시간 외에는 즉시 논평을 제공하지 않았다고 덧붙였다.
용어 설명
본 기사에서 언급된 HBM4는 “High Bandwidth Memory”의 네 번째 세대 기술로, 대량의 병렬 데이터 전송과 높은 대역폭을 통해 AI 연산과 같은 데이터 집약적 작업에서 성능 향상을 목표로 한 메모리 규격이다. HBM은 층을 쌓는 적층 구조를 사용해 칩당 용량과 대역폭을 높이는 기술이며, 숫자 표기는 세대(버전)를 의미한다. HBM4는 이전 세대 대비 전력 효율과 대역폭 면에서 개선이 기대되는 차세대 규격.
TSMC는 반도체 위탁생산(파운드리) 분야의 글로벌 선두 기업으로, 설계된 반도체를 실제 웨이퍼에 제조해 주는 역할을 한다. 브로드컴은 통상 네트워크, 통신 및 맞춤형 반도체 설계에서 강점을 가진 기업이다.
전문가적 관점에서의 시장적 함의
이번 보도가 사실일 경우, 삼성전자의 HBM4 대규모 공급은 AI 인프라용 고성능 메모리 시장에서의 지배력 강화로 이어질 가능성이 높다. OpenAI가 자체 AI 프로세서와 결합해 대규모로 고성능 메모리를 도입하면 HBM4 수요는 빠르게 확대될 전망이다. 메모리 공급사 측면에서는 물량 확보 경쟁이 치열해질 수 있으며, 공급 부족 우려가 커질 경우 HBM4 가격에 상향 압력이 발생할 수 있다.
반대로 삼성전자에게는 고부가가치 제품군에서의 안정적 매출 창출 및 기술 경쟁력 입증이라는 긍정적 결과가 예상된다. 특히 AMD와의 협력 확대까지 고려하면, 서버용 AI GPU 생태계 전반에서 삼성의 HBM4 점유율이 확대될 여지가 크다.
TSMC가 3분기부터 제조를 시작해 연말 출시를 목표로 하는 점은 칩 개발과 제조 일정이 계획대로 진행될 경우 내년 상반기부터 본격적인 장비 투자와 데이터센터 확장이 수반될 수 있음을 시사한다. 이는 메모리와 GPU, 서버 등 관련 산업에 광범위한 수요 파급 효과를 줄 수 있다.
리스크와 불확실성
다만, 보도 내용은 업계 소식통을 인용한 것이며, 공식 확정 발표가 아닌 점을 감안해야 한다. 공급량, 제조 일정, 계약 세부조건 등은 최종 계약서에서 달라질 수 있으며, 반도체 제조 공정 상의 변수, 파운드리의 생산능력(캐파) 상황, 글로벌 수요 변동성 등이 실제 이행에 영향을 미칠 수 있다. 또한 HBM4는 차세대 기술로서 초기 생산 문제나 수율 리스크가 존재할 수 있다.
파급 효과의 구체적 전망
첫째, 서버와 데이터센터용 고성능 메모리 수요는 단기적으로 확대될 가능성이 크다. AI 모델 학습과 추론(인퍼런스)을 위한 메모리 대역폭 요구는 계속 증가하고 있어 HBM4 도입은 자연스러운 기술 진화라는 평가가 가능하다. 둘째, 메모리 공급망 재편이 가속화될 수 있다. 주요 AI 업체들이 자체 설계 칩을 도입하면서 메모리 공급업체와의 전략적 파트너십이 중요해졌고, 이는 삼성 등 메모리 기업에 유리하게 작용할 수 있다. 셋째, 관련 기업들의 주가와 투자심리에 영향을 줄 가능성이 있다. 다만 단기적 주가 변동은 시장의 기대와 확정 발표 여부, 글로벌 경기와 반도체 사이클 등에 따라 차등적으로 나타날 것이다.
결론
로이터 보도에 따르면 삼성전자의 HBM4 공급 계획은 OpenAI의 자체 AI 칩 전략과 맞물리며 AI 인프라 생태계에서의 전략적 변화를 예고한다. 이 사안은 반도체 공급망, 메모리 시장 구조, AI 컴퓨팅 아키텍처 전반에 걸쳐 중장기적 영향을 미칠 가능성이 높다. 다만 보도는 업계 소스 인용에 기반한 것이므로 향후 공식 발표와 구체적 계약 내용 확인이 필요하다.
