WSJ 보도: 미국, 베네수엘라 급습 작전에서 앤트로픽의 AI ‘클로드’ 사용

미국 국방부 작전에서 앤트로픽(Anthropic)의 인공지능 모델 ‘클로드(Claude)’가 사용됐다는 내용이 월스트리트저널(WSJ) 보도로 전해졌다. 보도에 따르면 클로드의 작전 투입은 데이터 분석 업체 팔란티어 테크놀로지스(Palantir Technologies)와의 제휴를 통해 이뤄졌으며, 팔란티어의 플랫폼은 미 국방부와 연방 법집행기관에서 널리 사용되고 있다.

2026년 2월 16일, 로이터 통신은 관련 사안을 잘 아는 소식통을 인용해 이같이 보도했다. 로이터는 이 보도를 즉시 독자적으로 확인할 수 없었다고 전했으며, 미 국방부·백악관·앤트로픽·팔란티어 모두 로이터의 논평 요청에 즉각 응답하지 않았다고 설명했다.

보도 핵심

월스트리트저널 보도에 따르면 클로드의 투입은 팔란티어 플랫폼을 통한 방식으로 이뤄졌다. 팔란티어는 방대한 데이터 통합·분석 능력으로 군과 정보기관에서 광범위하게 사용되는 기업이다. 이 보고서는 클로드의 활용이 특정 임무의 정보분석·결정지원 등 다각적 용도로 사용됐을 가능성을 시사한다.

“앤트로픽의 클로드는 팔란티어와의 제휴를 통해 배치됐으며, 팔란티어의 플랫폼은 국방부와 연방 법집행기관에서 널리 사용된다.”


배경 및 추가 맥락

로이터는 또 미 국방부가 오픈AI(OpenAI)앤트로픽을 포함한 주요 인공지능 기업들에게 자사의 도구를 기밀 네트워크에서 사용할 수 있도록 하기 위해 제약 완화를 요구하고 있다고 단독 보도한 바 있다. 전통적으로 많은 AI 기업은 사용자에게 적용하는 표준 제한을 유지해 왔으며, 군사용·기밀 환경에서의 운영을 위해선 별도의 조정이 필요하다.

현재 다수의 AI 기업은 미 군을 위한 맞춤형 도구를 개발 중이며, 대부분은 군 행정 등 비기밀 환경에서만 사용 가능한 형태로 제공되고 있다. 다만 앤트로픽은 제3자를 통해 기밀 환경에서 사용 가능한 유일한 사례로 지목되었으며, 정부 측은 여전히 앤트로픽의 사용 정책에 구속된다고 보도는 전했다.

앤트로픽의 사용 정책과 제한

보도는 앤트로픽이 최근 자금 조달 라운드에서 $300억(약 30 billion 달러)을 유치했으며 기업가치가 $3,800억(약 380 billion 달러)로 평가받았다고 전하고 있다. 한편 앤트로픽의 사용 정책은 클로드를 폭력 지원, 무기 설계, 감시에 사용하지 못하도록 명시하고 있어 군·정보기관의 특정 작전 지원에 관한 법적·윤리적·정책적 쟁점을 남긴다.

베네수엘라 전 대통령 니콜라스 마두로 체포 작전과의 연관

보도는 미국이 전 베네수엘라 대통령 니콜라스 마두로(Nicolas Maduro)를 기습 작전으로 체포해 1월 초에 뉴욕으로 이송, 마약 밀매 혐의로 기소했다는 사실과 연결해 클로드의 사용을 보도했다. 구체적으로는 이번 작전의 정보 수집·분석·결정지원 과정에서 클로드가 활용됐다는 취지의 보도였다.

용어 설명: 기밀 네트워크와 사용 정책

여기서 기밀 네트워크(classified networks)란 국가안보 관련 정보가 처리되는 내부 전산망을 뜻하며, 외부 공개용 인터넷과는 분리돼 있다. 이러한 환경에 AI 모델을 배치할 때는 데이터 보안, 접근 통제, 모델의 출력 검증 등 추가적 안전장치와 기업의 사용 정책 준수가 중요한 이슈로 부각된다. 사용 정책(usage policies)은 기업이 자사 기술이 특정 행위나 목적에 사용되는 것을 제한하는 규정이다.

법적·윤리적 쟁점

앤트로픽의 명시적 사용 제한에도 불구하고, 제3자를 통한 기밀 환경 내 활용은 법적·윤리적 논란을 야기할 소지가 있다. 제3자 채널을 통한 배치는 기업의 직접 통제 범위를 벗어나는 경우가 발생할 수 있으며, 정부의 작전 목적과 기업의 정책 간 충돌 가능성이 존재한다. 또한 군사적 사용에 연루될 경우 국제법·인권 관련 고려사항도 제기된다.


시장·산업적 영향 분석

이번 보도는 AI 기업과 방산·국가안보 부문 간 협력의 심화가 시장과 산업에 미칠 파장을 가늠하게 한다. 첫째, AI 기업들의 방산·공공부문 매출 확대 가능성이 커질 수 있다. 기밀 네트워크에 적합한 맞춤형 솔루션을 제공하는 기업은 안정적·장기적 계약을 확보할 수 있으며, 이는 기업가치와 투자자 신뢰에 긍정적 영향을 미칠 수 있다.

둘째, 규제·정책 위험의 증대다. 민감한 군사 작전에 AI가 관여했다는 보도는 각국의 규제 강화, 수출통제, 윤리 규정 마련 요구로 이어질 가능성이 크다. 특히 앤트로픽과 같이 명시적 사용 제한을 둔 기업의 경우, 정책 위반 논란은 브랜드와 투자에 부정적 영향을 미칠 수 있다.

셋째, 기술 표준·검증 요구의 강화다. 군사·정보용 AI는 오류의 사회적 비용이 크기 때문에 모델의 투명성, 검증가능성, 감사 기록(로그) 보관 등 기술적 요건이 강화될 전망이다. 이 과정에서 클라우드·보안 기업, 데이터 인프라 업체의 수혜 가능성도 존재한다.

전문가적 시사점

이번 사건은 AI 기술의 확산이 단순한 상업적 활용을 넘어 국가안보 차원으로 깊숙이 들어가고 있음을 보여준다. 국가안보와 기술 기업의 정책 간 균형을 어떻게 설정하느냐가 향후 AI 산업의 성장 경로와 규제 환경을 좌우할 것이다. 또한 투자자와 정책결정자들은 기술적 이점과 윤리·법적 위험을 동시에 평가해야 한다.


마무리

WSJ와 로이터의 보도를 통해 드러난 이번 사례는 앤트로픽의 AI 모델이 실제 작전 단계에서 쓰였을 가능성을 제기한다. 관련 기관들의 공식 입장과 추가 확인이 남아 있으며, 이번 보도는 AI·방산·정책 분야의 향후 논의와 규제 동향을 촉발할 것으로 보인다.