미국 AI업체 앤써픽(Anthropic)은 2026년 2월 23일 자사 블로그를 통해 중국의 세 개 기업이 자사 챗봇 모델인 클로드(Claude)를 부적절하게 활용해 자체 AI 모델의 성능을 개선하려 했다고 밝혔다. 이 같은 공개는 이달 초 오픈AI(OpenAI)의 유사한 폭로 이후 나온 것이다.
2026년 2월 23일, 로이터 통신의 보도에 따르면 앤써픽은 블로그 게시물에서 DeepSeek, Moonshot, MiniMax 등 세 기업이 약 24,000개의 가짜 계정을 사용해 클로드와의 상호작용을 1,600만 회 이상 생성했다고 밝혔다. 앤써픽은 이들 행위가 자사 이용약관 및 지역별 접근 제한을 위반한 것이라고 지적했다.
앤써픽은 해당 캠페인들이 ‘증류(distillation)’라는 기법을 활용했다고 설명했다. 이 기법은 기존의 더 크고 성능이 입증된 모델이 신생 모델의 답변 품질을 평가함으로써, 사실상 선행 모델의 학습 결과를 후행 모델로 이전하는 방식이다. 앤써픽은 블로그에서 “These campaigns are growing in intensity and sophistication. The window to act is narrow, and the threat extends beyond any single company or region.”라는 문구를 인용하며 이러한 캠페인의 강도와 정교함이 증가하고 있다고 경고했다.
앤써픽이 밝힌 각 기업별 목표는 다음과 같다. DeepSeek는 다양한 작업에서의 추론 능력(reasoning capabilities)을 겨냥했으며, 정책 민감한 질의에 대해 검열을 회피하는 대체 답변을 생성하는 역량까지 모사하려 한 것으로 전해졌다. Moonshot은 에이전트적 추론(agentic reasoning)과 도구 사용(tool use), 코딩 및 데이터 분석을 목표로 삼았고, MiniMax는 에이전트형 코딩, 도구 사용 및 오케스트레이션(orchestration)을 집중적으로 노렸다. 앤써픽은 MiniMax가 훈련 중인 모델을 공개하기 전에 해당 캠페인을 탐지했다고 밝혔다.
“When we released a new model during MiniMax’s active campaign, they pivoted within 24 hours, redirecting nearly half their traffic to capture capabilities from our latest system,”라는 앤써픽의 설명처럼, MiniMax는 앤써픽이 새 모델을 공개하자 24시간 이내에 내부 전략을 전환해 트래픽의 거의 절반을 새 시스템의 역량을 흡수하는 데 집중했다.
앤써픽은 해당 기업들(DeepSeek, Moonshot, MiniMax)이 논평 요청에 즉시 응답하지 않았다고 전했다. 또한 이번 사안은 앞서 오픈AI가 공개한 사례와 궤를 같이하며, 미국과 중국을 포함한 글로벌 AI 산업 전반의 보안·윤리·규제 문제를 다시 부각시키고 있다.
용어 설명 — ‘증류(distillation)’와 ‘에이전트적(agentic)’ 의미
여기서 사용된 증류(distillation)는 기계학습 분야에서 잘 알려진 기법으로, 일반적으로 더 큰(teacher) 모델의 출력이나 판단을 작은(student) 모델이 모방하도록 함으로써 성능을 끌어올리는 방법이다. 정식 연구·학습 목적이나 합법적 라이선스 하에서 진행될 때는 유용한 기술이지만, 타사의 상용 모델에 대한 무단 대규모 질의와 자동화된 계정 조작을 통해 수행될 경우 지적 재산권 침해, 서비스 약관 위반, 데이터 오용 문제가 발생할 수 있다.
또한 보도에서 언급된 에이전트적(agentic)이라는 용어는 단순한 질의응답 수준을 넘어, 여러 도구와 API를 연계해 스스로 작업을 수행하거나 의사결정을 지원하는 형태의 모델 역량을 가리킨다. 이는 자동화된 코드 작성, 외부 툴 호출, 작업 오케스트레이션 등 보다 고차원적인 기능을 포함한다.
규제·산업적 함의 및 전망
이번 사례는 몇 가지 중요한 시사점을 제공한다. 우선 대형 AI 모델을 보유한 기업들은 모델 접근 통제와 비정상적 상호작용 탐지 기술을 강화해야 할 필요성이 커졌다. 앤써픽의 설명처럼 수만 개의 가짜 계정을 통한 수백만~수천만 회 수준의 상호작용은 단일 업체의 모니터링 역량을 빠르게 압박할 수 있다. 이와 같은 공격적 데이터 수집 방식은 모델 개발 비용과 시간의 우위를 침해할 수 있으며, 결과적으로 AI 경쟁 구도에 직접적 영향을 미칠 가능성이 있다.
금융·투자 관점에서는, 대형 AI 기업들의 기술적 우위가 침해될 경우 해당 기업들의 연구개발( R&D) 투자 회수 기간이 길어지고, 시장 신뢰도가 단기적으로 하락할 수 있다. 이는 AI 관련 상장 기업의 주가 변동성 증가로 이어질 여지가 있으며, 특히 보안·거버넌스 리스크를 과소평가한 기업에 대해 투자자들이 더 높은 위험 프리미엄을 요구할 가능성이 있다. 반대로, 보안 탐지 및 인증·거버넌스 솔루션을 제공하는 기업들과 합법적·윤리적 모델 훈련 인프라를 갖춘 기업들은 수혜를 볼 수 있다.
정책 측면에서 보면, 이번 사안은 국가 간 기술 경쟁·안보 이슈와 맞물려 규제의 국제적 조율 필요성을 부각시킨다. 특정 지역에서의 접근 제한이나 약관 위반 행위가 국경을 넘어 발생할 수 있는 만큼, 데이터·AI 거버넌스의 표준화 및 위반 시 제재 체계 마련이 촉구될 전망이다.
실무적 권고
기업 관점에서는 다층적 방어 전략을 권장한다. 구체적으로는 이상 트래픽·계정 생성 탐지 시스템의 강화, API 호출 패턴에 대한 실시간 분석, 모델 출력의 무단 재사용을 탐지하기 위한 워터마킹(watermarking)·추적 기술 도입, 그리고 법적·계약적 보호장치의 엄격한 적용이 필요하다. 기술적·법적 대응 외에도 업계 차원의 정보공유와 표준 수립이 단기적 리스크 완화에 기여할 것으로 보인다.
결론적으로, 앤써픽의 이번 폭로는 대형 AI 모델을 둘러싼 경쟁이 단순한 성능 경쟁을 넘어 지적재산·데이터 보안·규제 문제와도 깊게 연결되어 있음을 재확인시킨다. 업계는 기술 보호와 윤리적 이용 사이의 균형을 재정립해야 하며, 투자자와 정책결정자 역시 이 새로운 리스크 요인을 면밀히 관찰·대응해야 한다.




