DeepSeek, 플래그십 오픈소스 AI 모델 ‘V4’ 프리뷰 공개

중국 인공지능 스타트업 DeepSeek가 새로 개발한 플래그십 오픈소스 인공지능(AI) 모델 V4의 프리뷰 버전을 공개했다. 회사는 향상된 추론 능력과 성능 개선을 강조했으며, 이번 공개는 오픈소스 AI 생태계에 미칠 파급력에 대한 관심을 불러일으키고 있다.

2026년 4월 24일, 인베스팅닷컴의 보도에 따르면, DeepSeek는 이번에 두 가지 모델을 함께 발표했다. DeepSeek-V4-ProDeepSeek-V4-Flash가 그것이다. 회사 측은 Pro 버전이 1.6조(1.6 trillion) 파라미터를 보유하고 있으며, Flash 버전은 2,840억(284 billion) 파라미터로 더 작고 경량화된 모델이라고 밝혔다.

두 모델 모두 컨텍스트 윈도우(context window)100만 토큰(1,000,000 tokens)으로 설계되었다. 컨텍스트 윈도우란 모델이 한 번에 처리할 수 있는 입력 정보의 양을 뜻하는 기술적 지표로, 길게는 문서 전체를 이해하거나 복잡한 장문의 대화 상태를 유지하는 데 중요한 역할을 한다.

회사 측은 현재 두 모델이 텍스트만 처리할 수 있으며 “멀티모달 기능을 통합하기 위해 작업 중(working on incorporating multimodal capabilities)”이라고 밝혔다.

원문 보도에 따르면 V4-Pro-Max, 즉 V4 라인업의 최상위 모델은 코드 작성 벤치마크에서 톱티어 성능을 기록했고, 추론(reasoning) 및 에이전트 작업(agentic tasks)에서 폐쇄형(클로즈드소스) 모델들과의 격차를 크게 줄였다고 회사는 설명했다.

구체적 비교 수치로 DeepSeek가 공개한 데이터에서는, AI 코드 평가 지표로 널리 사용되는 MMLU-Pro에서 DeepSeek V4-Pro가 오픈AI의 GPT-5.4와 유사한 수준을 보였으나, 구글의 Gemini-3.1-ProAnthropic의 Claude Opus 4.6보다는 다소 뒤처지는 것으로 나타났다. 여기서 MMLU-Pro는 다중과목 이해력(Multi-task Language Understanding) 관련 성능을 측정하는 벤치마크로, 모델의 폭넓은 지식 활용 능력과 추론 능력을 평가한다.

DeepSeek는 이번 발표에서 어떤 GPU(그래픽처리장치)로 모델을 학습시켰는지 구체적으로 밝히지 않았다. 다만 올해 초 미국 관리들은 이 회사가 금지된 NVIDIA의 Blackwell 계열 칩을 사용해 모델을 학습시켰다고 비난한 바 있다. 한편, 미국 매체 The Information의 최근 보도는 DeepSeek가 화웨이(Huawei)의 고급 AI 칩으로 모델을 학습시켰다고 전했다.

화웨이는 별도 발표를 통해 자사 슈퍼노드(supernode)가 Ascend 950 AI 칩을 구동하며, 해당 인프라가 DeepSeek의 V4 모델을 완전히 지원한다고 밝혔다. Ascend 950은 화웨이의 고성능 AI 연산용 칩셋으로 알려져 있다.


배경과 의미

이번 발표는 DeepSeek가 2025년 초에 공개했던 R1 모델 이후로 발표하는 첫 대대적 자체 개발 모델이라는 점에서 의미가 크다. 당시 R1은 오픈소스 AI 모델의 성능을 폐쇄형 경쟁사와 견줄 만한 수준으로 끌어올린 사례로 평가되며 업계에 큰 파장을 일으켰다. R1의 공개는 전 세계 기술주에 단기적인 급락을 초래했고, 투자자들은 더 가볍고 효율적인 모델이 전통적 AI 인프라 수요를 재검토하게 만들 것인지 우려했다.

최근 보도에 따르면 텐센트와 알리바바가 DeepSeek에 200억 달러(2천억 달러 아님) 이상의 기업가치(valuation)로 투자 논의를 진행 중이라는 소식도 전해졌다. DeepSeek는 중국 내에서 ‘AI 타이거(AI Tigers)’로 불리는 여섯 개 AI 유니콘 중 하나로, 중국의 성장하고 있는 AI 산업 전략에서 핵심적 위치를 차지하고 있다.


용어 설명

파라미터(parameter): 인공지능 모델 내부에서 학습되는 수치화된 값들의 집합으로, 모델의 크기와 복잡도를 가늠하는 대표적 척도다. 파라미터 수가 많을수록 모델이 더 많은 패턴을 저장하고 복잡한 관계를 학습할 수 있으나 계산 비용과 학습 시간이 증가한다.

컨텍스트 윈도우(context window): 모델이 한 번에 참고할 수 있는 입력 길이로, 길 때는 긴 문서나 여러 문단에 걸친 일관된 추론을 가능하게 한다. DeepSeek의 100만 토큰은 현재 공개된 상용 모델 기준에서도 매우 큰 편에 속한다.

멀티모달(multimodal): 텍스트뿐 아니라 이미지, 비디오, 음성 등 여러 형태의 입력을 동시에 처리하는 능력을 의미한다. 멀티모달 기능은 챗봇의 실용성을 크게 확장한다.

MMLU-Pro: 다양한 과목에 걸친 모델의 지식과 추론 능력을 평가하는 벤치마크이다. 특히 고도화된 언어 이해능력과 문제 해결 능력을 측정하는 데 사용된다.


산업적·경제적 영향 분석

이번 V4 공개는 몇 가지 측면에서 산업적 영향을 미칠 가능성이 높다. 첫째, 오픈소스 모델 경쟁력의 강화는 클라우드 서비스 제공자와 AI 칩 제조사 간의 수요 구조에 변화를 초래할 수 있다. 예컨대, 모델이 경량화되거나 효율성이 높아지면 전통적 대규모 데이터센터 의존도가 줄어들고, 더 경제적인 연산 자원에 대한 수요가 증가할 수 있다.

둘째, DeepSeek가 공개한 성능 지표는 폐쇄형 모델과의 성능 격차를 좁혔음을 시사하므로, 기업 고객과 개발자들은 상용 API가 아닌 오픈소스 모델을 채택할 유인이 커질 수 있다. 이는 서비스 제공자의 수익 구조와 라이선스 전략에도 영향을 미친다.

셋째, 하드웨어 측면에서는 NVIDIA의 독점적 위치에 대한 도전과 다중 공급망의 필요성이 부각될 수 있다. 미국 당국의 제재 가능성과 일부 보도에 따른 화웨이 칩 사용 사례는 기술 공급망의 지리적·정치적 리스크를 기업들이 더 면밀히 평가하게 만드는 계기가 된다. 결과적으로 AI 칩을 둘러싼 경쟁과 투자, 지역 분산 전략이 가속화될 수 있다.

넷째, 투자 측면에서 텐센트와 알리바바의 잠재적 참여 소식은 중국 내 AI 유니콘에 대한 대형 자금유입 가능성을 시사한다. 이는 DeepSeek의 밸류에이션과 향후 연구개발(R&D), 인프라 확장에 직접적인 영향을 줄 수 있다. 다만 투자 논의는 보도 단계이며 구체적 거래 성사 여부와 조건은 추후 확인돼야 한다.


전망과 고려해야 할 리스크

DeepSeek의 V4 시리즈는 오픈소스 AI 경쟁에서 중요한 이정표가 될 수 있지만 몇 가지 리스크가 존재한다. 첫째, 모델 학습에 사용된 하드웨어에 대한 불확실성과 정치적 제약은 글로벌 확장과 협력에 변수로 작용할 수 있다. 둘째, 멀티모달 기능의 통합 시점과 품질은 실제 상용화와 경쟁력 확보의 관건이다. 셋째, 벤치마크 상의 성능은 실제 응용 환경에서의 안전성·공정성·비용 효율성과 바로 연결되지 않으므로 실사용 성능 검증이 중요하다.

종합하면, DeepSeek의 V4 공개는 오픈소스 AI 생태계의 기술 수준을 한 단계 끌어올리는 신호로 평가된다. 향후 모델의 멀티모달 전환 성과, 하드웨어 파트너십의 안정성, 그리고 글로벌 투자 유치의 구체화 여부가 이 신제품의 산업적 파급력을 결정할 주요 변수다.