<워싱턴·로이터> 미국 국방장관 피트 헤그섯(Pete Hegseth)가 인공지능(AI) 기업 앤트로픽(Anthropic)에게 자사 제품의 군사용 활용을 제한하는 안전장치를 철회하라고 요구하며 ‘금요일까지’ 결단을 촉구했다고 복수의 외신이 보도했다. 이번 압박은 군에서 사용하는 AI 기술의 제약을 둘러싼 민·관 간 긴장감이 고조되는 가운데 나왔다.
2026년 2월 24일, Axios의 보도에 따르면 헤그섯 장관은 앤트로픽에 대해 군 적용을 어렵게 만드는 안전 조치를 완화하거나 철회하라고 통보했다. 로이터 통신은 이 사안을 화요일 보도로 전했다. 보도는 구체적 대화 내용의 인용 없이 앤트로픽 측이 군 관련 사용을 제한하는 일부 안전장치를 도입해왔고, 이로 인해 미 국방부의 요구와 마찰이 발생했다고 전했다.
핵심 사실
피트 헤그섯은 미국 국방장관이며, 앤트로픽은 인공지능 기술을 개발하는 민간 기업이다. 이번 통지는 언론 보도를 통해 알려졌으며, 통지의 구체적 법적 근거나 계약 조항 등은 공개되지 않았다.
안전장치(safeguards)란 무엇인가
AI 업계에서 사용하는 안전장치는 모델의 특정 응답을 차단하거나, 민감한 용도에 대한 접근을 통제하며, 응답의 악용 가능성을 낮추기 위한 기술·정책적 메커니즘을 포괄한다. 이러한 장치는 자체적으로는 기업의 책임성·윤리성을 높이는 수단으로 해석되지만, 동시에 군·국방 응용을 제한하거나 특정 API 기능의 사용을 차단할 수 있다. 따라서 군 당국과 개발사 간에는 안전성 확보와 국방적 유용성 간 균형을 둘러싼 긴장관계가 발생할 수 있다.
사건의 맥락과 배경
최근 몇 년간 인공지능 기술은 민간·군사 영역 모두에서 중요한 전략 자산으로 부상했다. AI 모델의 성능과 범용성은 군사 정보처리, 자동화된 분석, 의사결정 보조 등 다양한 용도로 활용될 잠재력이 있다. 이에 따라 미 국방부와 정보기관은 상용 AI 기술의 도입에 적극적이지만, 동시에 오용·오작동·책임 소재 등에 대한 우려로 안전성 검증을 요구하고 있다. 반면 AI 기업들은 국제적 규범, 자사 윤리 기준, 법적·사회적 책임을 고려해 특정 활용을 제한하는 안전장치를 도입해 왔다.
전문적 분석: 정책·산업적 함의
첫째, 이번 통보는 민간 AI 기업과 정부 간의 규율 조정 긴장을 보여준다. 정부 측 입장은 국가 안보와 군사적 효율성을 최우선으로 하는 반면, 기업은 광범위한 사회적·윤리적 책임을 고려해 제품 설계를 결정한다. 둘째, 공급망 및 조달 측면에서 민간 AI의 군 도입은 계약 조건, 보안 요구사항, 지속적 지원 여부 등에서 새로운 협상 항목을 만들게 된다. 셋째, 기술 표준과 거버넌스 측면에서 이번 사안은 향후 국가 차원의 AI 규제·안보 기준 수립에 영향을 미칠 가능성이 크다.
경제적·시장 영향 전망
단기적으로는 해당 기업과 유사 기술을 보유한 AI 업체의 투자심리에 영향을 줄 수 있다. 국방 관련 수요는 크고 안정적인 매출원으로 작용할 수 있으나, 군 적용을 둘러싼 법적·윤리적 논쟁은 기술 도입의 불확실성을 키우며 투자자들이 위험 프리미엄을 요구하게 할 수 있다. 또한, 방위산업체 및 국방 관련 공급망에 AI 솔루션을 제공하는 기업들의 사업모델이 재검토될 가능성이 있다. 장기적으로는 정부와 기업 간 표준화·인증 체계가 마련되면 시장의 불확실성은 줄고, 규범에 부합하는 기업은 경쟁 우위를 확보할 수 있다.
법적·정책적 고려사항
이번 사안은 계약법, 국방 조달 규정, 수출통제, 데이터 보호 법규 등 다층적 법적 쟁점을 내포한다. 정부가 특정 기업에 대해 공개적으로 철회를 요구하는 것은 정치적 압박으로 해석될 수 있으며, 기업의 내부 정책 변경 여부와 외부 규제 기관의 개입 가능성에 따라 사안은 확대될 수 있다. 또한, 동맹국과의 협조 차원에서 미국의 결정은 국제적 규범 형성에도 영향을 미칠 수 있다.
기업과 시장의 선택지
앤트로픽과 유사한 AI 기업들이 취할 수 있는 전략적 옵션은 다음과 같다. 첫째, 정부 요구를 수용해 특정 안전장치를 완화하거나 예외 조항을 마련해 군 사용을 허용하는 것. 둘째, 현재의 안전장치를 유지하면서 정부 및 학계와 협력해 안전성을 보장하는 기술·절차(예: 검증·검수 프로세스)를 개발하는 것. 셋째, 법적 대응 또는 공적 논의를 통해 자율 규제의 정당성을 주장하는 것이다. 각 선택지는 기업의 평판, 법적 리스크, 고객 기반, 장기적 사업전략에 서로 다른 영향을 미친다.
실무적 시사점 및 다음 단계
우선적으로 관찰해야 할 변수는 앤트로픽의 공식 입장 발표 여부와 미 국방부의 추가 행동이다. 양측이 대화 채널을 유지하면서 기술적·계약적 해결책을 모색하면 충돌을 완화할 수 있다. 반면, 공개적 갈등으로 비화하면 다른 기업들도 비슷한 요구에 노출될 가능성이 있다. 정책 차원에서는 정부가 군용 AI에 대한 명확한 승인 메커니즘과 책임 규정을 제시하는 것이 중요하다. 시장 참여자들은 규제 불확실성에 대비해 리스크 관리·대체 고객 확보·윤리적 거버넌스 강화를 고려해야 한다.
요약 인용: Axios는 헤그섯 장관이 앤트로픽에 금요일까지 안전장치 철회를 요구했다고 보도했다.
결론
이번 보도는 AI 기술의 군사적 활용을 둘러싼 민간 기업과 정부 간의 복잡한 상호작용을 상징적으로 보여준다. 안전성과 유용성 사이의 균형을 어떻게 설정하느냐가 향후 기술 개발 방향과 국제 규범 형성에 중대한 영향을 미칠 전망이다. 이해당사자들은 투명한 절차와 기술적 검증을 통해 신뢰를 구축하는 동시에, 법적·윤리적 기준을 명확히 하는 노력이 필요하다.
기사 원문 보도 시각: 2026-02-24 18:49:01










