스티븐 넬리스 기자, 샌프란시스코 (로이터) – 수요일에 발표된 새로운 데이터에 따르면, 엔비디아의 최신 칩이 대규모 인공지능 시스템 훈련에서 성과를 보였다. 대규모 언어 모델을 훈련시키는 데 필요한 칩 수가 크게 줄어들었다.
비영리 단체 MLCommons는 AI 시스템 성능을 평가한 벤치마크 결과를 발표하면서 엔비디아(NASDAQ:NVDA)와 어드밴스드 마이크로 디바이시스(NASDAQ:AMD) 등의 칩에 대한 새로운 데이터를 공개했다. AI 시스템에 많은 데이터를 입력하여 학습시키는 훈련 과정에서 이 데이터가 활용된다. 증권 시장은 AI 추론 시장에 더 많은 관심을 두고 있지만, 시스템 훈련에는 여전히 많은 칩이 필요하다. 중국의 딥시크는 미국 경쟁사들보다 훨씬 적은 칩을 사용해 경쟁력 있는 챗봇을 만들었다고 주장한다.
2025년 6월 4일, 로이터 보도에 따르면, 이번 결과는 MLCommons가 이와 같은 AI 시스템 훈련에 관한 칩 성능을 공개한 최초의 예다. 메타 플랫폼(NASDAQ:META)이 공개한 오픈 소스 AI 모델 Llama 3.1 405B는 많은 ‘파라미터’를 가지고 있어 복잡한 훈련 작업에서 칩이 어떤 성능을 보일 수 있는지를 나타낸다. 이 과정에는 수조 개의 파라미터가 포함될 수 있다.
엔비디아와 그 파트너들은 이 대규모 모델 훈련에 관한 데이터를 제출한 유일한 참가자였으며, 데이터에 따르면 엔비디아의 새로운 블랙웰 칩은 칩 하나당 속도가 이전 세대 호퍼 칩보다 두 배 이상 빠르다. 엔비디아 최신 칩의 가장 빠른 결과로는 2,496개의 블랙웰 칩이 27분 만에 훈련 테스트를 완료했으며, 이전 세대 칩보다 훨씬 적은 수로 더 빠른 속도를 기록했다.
코어위브의 최고 제품 책임자인 체탄 카푸르는 AI 산업에서 서로 다른 AI 훈련 작업을 위한 소규모 칩 그룹을 결합하는 경향이 있다고 말했다. 이는 10만 개 이상의 같은 칩 그룹을 생성하기보다는 훈련 시간을 줄이는 방법이라고 설명했다.