샘 올트먼, OpenAI 최고경영자(CEO)가 2026년 2월 19일 인도 뉴델리에서 열린 AI 임팩트 서밋(AI Impact Summit)에 참석한 모습. 사진 제공: Prakash Singh | Bloomberg | Getty Images
2026년 2월 28일, CNBC의 보도에 따르면, OpenAI의 CEO인 샘 올트먼(Sam Altman)은 금요일 늦게 자사 인공지능(AI) 모델을 미국 국방부(Department of Defense, DoD)의 분류( classified) 네트워크에서 사용하기로 합의했다고 밝혔다.
올트먼은 X(구 트위터)에 올린 글에서 “오늘 밤 우리는 Department of War와 자사 모델을 그들의 분류 네트워크에 배치하기 위한 합의에 도달했다”고 썼다. 같은 글에서 올트먼은 “모든 상호작용에서 DoW는 안전에 대한 깊은 존중과 최선의 결과를 달성하기 위한 파트너십 의지를 보였다”고 밝혔다. 기사 원문은 DoD(Department of Defense)와 올트먼이 표기한 DoW(Department of War)를 함께 인용하고 있다.
이번 발표는 AI 산업이 정치적 논쟁의 한가운데 섰던 극적인 한 주를 마감하며 나왔다. 같은 날, 국방장관 피트 헤그세스(Pete Hegseth)는 경쟁사인 Anthropic을 “국가 안보에 대한 공급망 위험(Supply-Chain Risk to National Security)”으로 지정했다. 이 지정은 통상적으로 외국 적대국에 적용되던 표준으로, 지정이 유지되면 국방부의 공급업체와 계약업체들은 Anthropic의 모델을 사용하지 않았음을 인증해야 하는 의무가 부과된다.
또한 도널드 트럼프 대통령은 모든 연방 기관에 대해 즉시 Anthropic 기술 사용 중단을 지시했다. Anthropic은 이전에 국방부의 분류 네트워크에 자사 모델을 배포한 첫 번째 연구소였으며, 이후 계약의 지속 조건을 둘러싼 협상이 결렬되었다. Anthropic은 자사의 모델이 완전자율 무기나 미국인에 대한 대규모 감시에 사용되지 않을 것이라는 보장을 원했지만, 국방부는 합법적 사용 사례 전반에 걸쳐 모델을 사용할 수 있도록 Anthropic이 동의할 것을 요구했다.

올트먼은 목요일 직원들에게 보낸 메모에서 OpenAI도 Anthropic과 동일한 “레드라인(red lines)”을 가지고 있다고 밝혔다. 금요일 게시물에서 올트먼은 국방부가 OpenAI의 제한을 수용하기로 합의했다고 전했다. 그는 “우리의 가장 중요한 안전 원칙 중 두 가지는 국내 대규모 감시의 금지와 무력 사용에 대한 인간의 책임, 특히 자율 무기체계에 대한 책임성 보장이다”라고 쓰고, DoW가 이러한 원칙에 동의하며 법과 정책에 반영되었고 합의서에도 반영되었다고 말했다.
왜 국방부가 Anthropic과의 협상에서는 합의에 이르지 못했지만 OpenAI와는 합의했는지는 즉시 명확해지지 않았다. 다만 정부 관리들은 수개월 동안 Anthropic이 AI 안전 문제에 대해 지나치게 우려한다고 비판해 왔다.
올트먼은 OpenAI가 “모델이 의도대로 작동하도록 보장하는 기술적 안전장치(technical safeguards)”를 구축하고, 모델 운용과 안전을 보장하기 위해 인력을 배치할 것이라고 밝혔다. 그는 또한 국방부에 이와 동일한 조건을 모든 AI 기업에 제공할 것을 요청하고 있으며, “법적·정부적 행동에서 벗어나 합리적인 합의로 사태를 진정시키려는 강한 의지를 표명했다”고 말했다.
Anthropic은 금요일 성명에서 펜타곤의 공급망 위험 지정에 대해 “깊은 실망( deeply saddened)”을 표했으며, 해당 지정에 대해 법원에서 이의를 제기할 계획이라고 밝혔다.
용어 설명(독자를 위한 추가 설명)
첫째, “국가 안보에 대한 공급망 위험(Supply-Chain Risk to National Security)” 지정은 특정 업체의 제품이나 서비스가 군사·안보 시스템의 안정성과 기밀성에 잠재적 위협을 줄 수 있다고 평가될 때 부과되는 행정적 조치다. 이 지정이 내려지면 관련 계약업체들은 해당 업체의 기술을 사용하지 않았음을 증명해야 하는 의무가 생기며, 결과적으로 특정 기업의 기술이 정부 조달에서 배제될 수 있다. 둘째, 국방부의 분류 네트워크(classified network)는 민감한 정보와 작전 관련 데이터가 취급되는 보호된 네트워크로, 외부에 공개되지 않은 정보와 인프라를 포함한다.
정책·시장 영향 분석
이번 사안은 기술 기업의 정부 계약 기회와 규제 리스크가 기업 가치와 투자 심리에 미치는 영향을 보여주는 사례다. 국방부가 한 기업에는 보안·정책적 요구조건을 수용하며 협상에 응하고 다른 기업에는 강경 조치를 취하는 모습은 다음과 같은 파급 효과를 유발할 수 있다.
첫째, AI 기업들에 대한 정부 조달 기회는 안전·윤리적 가이드라인을 얼마나 명확하게 제시하고 수용하느냐에 따라 양극화될 가능성이 크다. 이는 향후 방위산업과 AI 기업 간의 협업 구조를 재편할 수 있다. 둘째, 투자 관점에서 보면, 군·정부 수주가 예상되는 기업은 단기적으로는 규제 리스크가 낮아지며 주가 및 기업가치에 긍정적 영향을 받을 수 있다. 반대로 지정 또는 계약 취소 리스크를 받는 기업은 불확실성 확대에 따른 비용 증가와 투자 회피로 이어질 가능성이 있다. 셋째, 정책적 선례로서 이번 결정은 향후 연방·주(州) 차원의 AI 규제 및 구매 가이드라인 수립에 영향을 미칠 수 있으며, 글로벌 공급망 관점에서는 동맹국과의 협력 조건에도 파급을 줄 수 있다.
이와 같은 분석은 현재 공개된 사실과 정책적 논의에 근거한 추정이며, 실제 영향의 크기는 법원의 판결, 국방부의 추가 지침, 그리고 업계의 기술적·제도적 대응에 따라 달라질 전망이다.
향후 관전 포인트
핵심적으로 지켜볼 사항은 다음과 같다. 첫째, 국방부가 OpenAI와 맺은 합의의 구체적 조항 공개 여부와 그 범위다. 둘째, 국방부가 Anthropic에 대해 법적 지정에 따른 후속 조치를 실행하는 방식과 Anthropic의 법적 대응 결과다. 셋째, 다른 AI 기업들이 DoD(또는 올트먼이 언급한 DoW)에 대해 동일한 조건 수용 여부다. 마지막으로, 이러한 결정들이 방위산업 조달 정책과 상업 AI 생태계에 미치는 중장기 영향이다.
요약하면, OpenAI와 국방부의 합의 발표는 AI 안전 원칙과 군사적 활용 사이의 긴장 관계를 드러내며, 향후 법적·정책적 분쟁과 시장 재편의 신호탄이 될 가능성이 있다. Anthropic의 지정에 대한 법적 다툼과 국방부의 추가 조치가 남은 변수가 될 전망이다.









