[테크·반도체] 중국 인공지능(AI) 스타트업 딥시크(DeepSeek)가 차세대 대형언어모델(LLM) 공개를 계획했던 일정을 연기했다. 현지 매체는 화웨이가 공급한 칩셋을 이용한 학습(train) 과정이 목표대로 진행되지 못했기 때문이라고 전했다.
2025년 8월 14일, 영국 경제지 파이낸셜 타임스(FT) 보도에 따르면, 딥시크는 당초 올해 안에 새로운 AI 모델을 선보일 예정이었으나, 화웨이(華為) 칩 기반 연산 환경에서 성능을 확보하는 데 실패함에 따라 일정을 불가피하게 조정했다. 이 같은 소식은 베이징 정부가 미국산 반도체 의존도를 줄이기 위해 추진해 온 ‘자립화’ 전략의 한계를 드러낸다는 분석을 낳고 있다.
딥시크 측은 구체적인 지연 기간이나 향후 일정을 공식적으로 공개하지 않았으나, 연구·개발(R&D) 테스트 단계에서 발생한 호환성 문제가 치명적이었다는 점만은 인정한 것으로 알려졌다. FT는 “딥시크 엔지니어들이 화웨이 칩으로 대규모 언어 데이터를 학습시키는 과정에서 속도 저하와 안정성 이슈에 직면했다”고 요약했다.
배경 설명※ AI 모델 ‘훈련(Training)’은 방대한 데이터를 통해 알고리즘이 패턴을 학습하도록 만드는 과정이다. 이때 고성능 그래픽처리장치(GPU)나 AI 전용 가속기가 핵심 자원으로 쓰인다. 현재 글로벌 AI 생태계에서는 미국 엔비디아(NVIDIA)의 칩 점유율이 높지만, 중국 정부는 자국 업체의 하드웨어로 대체하려는 ‘차이나 인사이드(China Inside)’ 정책을 추진 중이다. 화웨이는 이 정책의 대표 주자로, 서버·클라우드용 AI 칩 ‘Ascend’ 시리즈를 개발해왔다.
전문가 관점(기자 해설) 딥시크 사례는 “하드웨어 국산화만으로는 글로벌 최고 수준의 AI 경쟁력을 확보하기 어렵다”는 현실을 재확인시킨다. AI 모델 품질에는 칩 성능뿐만 아니라 ▲소프트웨어 프레임워크의 성숙도 ▲생태계 지원 ▲대규모 데이터셋 처리 효율성 등이 종합적으로 작용한다. 중국 업체들이 서둘러 국산 칩을 도입하고 있지만, 실제 학습 결과가 기대에 미치지 못하면 시장 신뢰 확보가 쉽지 않다.
“데이터 센터 인프라가 뒷받침되지 않은 채 칩만 교체한다고 해서 곧바로 최첨단 AI 모델을 생산하기는 어렵다”
딥시크는 지난해에도 미국 엔비디아 A100·H100 GPU를 활용해 시제품을 구현한 바 있다. 이번 지연으로 회사는 추가 자금 조달 압박에 직면할 가능성이 있다는 관측이 나오지만, 딥시크 측은 “구체적인 투자 계획 및 일정은 밝힐 수 없다”고 선을 그었다.
표면적 파장 이번 사태는 ① 중국 스타트업의 성장 로드맵 ② 화웨이 반도체 역량 ③ 미·중 기술패권 경쟁이라는 세 축을 교차시킨다. 결과적으로 베이징의 자립화 정책이 현실적 제약을 어떻게 극복할지 주목된다는 점에서, 단순 기업 차원을 넘어 국가 전략과도 맞닿아 있다는 평가가 나온다.
향후 관전 포인트 딥시크가 화웨이 칩을 완전히 포기하고 해외 칩으로 회귀할지, 또는 소프트웨어 최적화 등 우회 전략을 통해 문제를 해결할지는 아직 미지수다. 다만 중국 AI 업계 내에서는 “혼합형·병렬형 아키텍처가 당분간 대안이 될 수 있다”는 의견이 조심스레 제기되고 있다.
업계 관계자들은 “학습 데이터를 1%만 바꿔도 전체 파라미터 조정이 필요한 AI 모델의 특성상, 하드웨어와 소프트웨어를 동시 최적화하지 않으면 경쟁력이 떨어질 수 있다”고 지적한다. 이는 딥시크뿐만 아니라 화웨이, 그리고 중국 정부에도 정책적 도전 과제가 될 전망이다.
결론 딥시크의 AI 모델 출시 지연은 칩 호환성 이슈가 본질적 리스크로 작동함을 보여주며, 이는 글로벌 AI 시장에서도 중요한 교훈을 제공한다. 향후 추가적인 공식 발표가 나올 때까지, 시장은 딥시크의 기술적 해결 능력과 화웨이 칩셋 생태계 완성도를 면밀히 주시할 것으로 보인다.