Investing.com은 최신 보고서를 통해, 인공지능(AI) 경쟁이 새로운 국면에 접어들었다고 전했다. 업계는 더 이상 학습 데이터와 파라미터 규모를 무한정 키우는 ‘브루트포스(brute-force)’ 방식에만 의존하지 않고, 훈련 이후(post-training) 단계에서 연산 자원을 집중 투입해 모델의 실질적 지능을 끌어올리는 전략으로 급격히 방향을 틀고 있다.
2025년 7월 26일, 인베스팅닷컴 보도에 따르면 xAI가 최근 공개한 ‘Grok 4’ 모델은 파라미터 수나 사전 학습(pre-training) 데이터 규모를 늘리지 않고도 지능 수준을 대폭 향상시키는 구조적 변화를 보여 주었다. 이는 사후 단계에서 10배 이상 증가된 강화 학습(reinforcement learning) 연산을 투입한 결과로, 기존 학습 단계와는 다른 ‘전략적 증폭(amplification)’ 방식이 주목받고 있다.
그동안 AI 발전은 2024년 말까지 ‘친칠라(Chinchilla) 스케일링 법칙’1에 따라 ‘더 큰 모델·더 많은 데이터’라는 명제로 요약됐다. 그러나 OpenAI의 o1 모델이 등장하면서 이 공식을 처음 흔들었고, 이번에 Grok 4가 그 변화를 가속화했다고 바클레이즈(Barclays) 애널리스트들은 평가했다.
Grok 4는 전작과 유사한 수준의 사전 학습 연산량을 사용했음에도, 이후 단계에서 강화 학습을 10배 확대해 추론·문제 해결 능력을 크게 끌어올렸다. 그 결과 파라미터 수는 그대로 유지돼 추론(inference) 비용은 낮춘 반면, 출력 품질은 향상시켰다.
사전 학습이 방대한 텍스트 코퍼스를 활용한 비지도 학습(unsupervised learning)에 의존하는 반면, 사후 강화 학습은 특정 과제(태스크)를 통한 시행착오(trial-and-error) 방식으로 모델을 정제한다. Grok 4의 경우, 이러한 접근법이 추론과 문제 해결 능력을 높이는 동시에 매개변수 수를 늘리지 않아도 되는 이점을 제공했다.
바클레이즈 애널리스트는 “더 많은 사전 학습 토큰에 의존하지 않고도 고성능·고지능을 달성할 수 있다”며 “포스트 트레이닝이 AI 진화의 핵심 경로가 될 것”이라고 전망했다.
아울러 산업계는 단일 응답을 즉시 생성하던 기존 모델에서 벗어나, ‘에이전틱(agentic) 모델’로 진화하고 있다. 이들 모델은 계획 수립·추론·도구 사용을 연속적으로 수행하며, 복잡한 환경에서 스스로 상호작용한다. 실제 벤치마크에서 Grok 4는 시뮬레이션 자판기(vending machine) 사업 운영 테스트에서 주요 경쟁 모델과 인간을 모두 능가하는 경제적 추론·적응력 결과를 보여 주었다.
컴퓨트(compute) 수요·설비투자(capex) 영향도 상당하다. 기존 모델이 한 번의 단일 계산 단계로 응답을 생성했다면, 에이전틱 모델은 연쇄(chain-of-thought) 추론을 수행해 쿼리당 최대 15배 많은 연산 집약적 토큰을 생성한다. 이에 따라 하이퍼스케일러(hyperscaler)들이 추진 중인 대규모 인프라 투자가 더욱 정당성을 얻게 됐다는 분석도 나온다.
이처럼 AI 연구가 오랫동안 사전 학습 규모에 의해 정의돼 왔음에도, ‘진짜 지능’은 포스트 트레이닝 단계에서 발견될 수 있다는 시각이 급부상하고 있다.
용어 해설 및 추가 맥락
1친칠라 스케일링 법칙 — 2022년 발표된 논문에서 제시된 경험 법칙으로, 모델 파라미터 수와 학습 토큰 수를 특정 비율로 늘릴 때 효율적으로 성능을 극대화할 수 있다는 내용이다. 그동안 대규모 언어 모델(LLM) 개발의 ‘교과서’처럼 인용돼 왔다.
강화 학습(RL) — 에이전트가 환경과 상호작용하며 보상(reward)을 최대화하도록 스스로 학습하는 머신러닝 기법이다. AI가 ‘시도와 실패’를 반복하면서 최적 행동 전략을 찾는 방식으로, 게임·로봇 제어·추천 시스템 등에서 사용된다.
에이전틱 모델 — 단순 질문·답변을 넘어 자율적 계획·추론·행동을 수행하는 모델을 말한다. 소프트웨어 도구 호출, 외부 API 연동, 멀티 스텝 의사결정 등을 연쇄적으로 처리할 수 있어 ‘AI 에이전트’의 핵심 기반으로 꼽힌다.
컴퓨트·캡엑스 — ‘컴퓨트’는 AI 모델 학습·추론에 필요한 연산 자원을, ‘캡엑스(capital expenditure)’는 데이터센터·GPU 클러스터 등 인프라 구축을 위한 설비 투자 비용을 의미한다.
전문가들은 이러한 변화가 데이터센터 전력 수요, 반도체 공급망, 클라우드 서비스 가격 구조에도 파급효과를 미칠 것으로 내다본다. 특히 AI-특화 반도체와 액체 냉각(liquid cooling) 등 차세대 인프라 솔루션이 동반 성장할 전망이다.