오픈AI, 미 국방부와의 계약에 다층(多層) 보호장치 명시

오픈AI(OpenAI)는 2026년 2월 28일(현지시간) 미 국방부(Department of Defense)와 체결한 보안 계약에 대해, 자사 기술의 사용을 보호하기 위한 다층적·복합적 보호장치가 포함돼 있다고 밝혔다.

2026년 2월 28일, 로이터의 보도에 따르면, 오픈AI는 이날 성명을 통해 해당 합의가 분류된 네트워크(classified network)에 인공지능(AI) 기술을 배치하는 데 있어 추가적인 안전장치들을 포함하고 있다고 설명했다.

사건의 배경으로는 전날 미국 도널드 트럼프 대통령이 앤트로픽(Anthropic)과의 협력을 중단하라고 지시했고, 미 국방부는 해당 스타트업을 공급망 리스크(supply‑chain risk)로 지정하겠다고 발표한 점이 있다. 앤트로픽은 이러한 리스크 지정이 내려질 경우 법원에서 이를 다투겠다고 밝혔다. 이에 맞서 마이크로소프트(Microsoft), 아마존(Amazon), 소프트뱅크(SoftBank) 등으로부터 지원을 받는 경쟁사 오픈AI는 2월 27일 늦은 시간에 별도의 계약 체결 사실을 공개했다.


오픈AI의 핵심 주장

오픈AI는 이번 계약이 앤트로픽의 계약을 포함해 이전의 어떤 분류된 AI 배치 계약보다 더 많은 가드레일(안전 장치)을 포함하고 있다고 주장했다. 회사는 이 계약에서 다음 세 가지 붉은 선(red lines)을 명확히 규정했다고 밝혔다.

  1. 오픈AI 기술은 대규모 국내 감시(mass domestic surveillance)에 사용될 수 없다.
  2. 오픈AI 기술은 자율 무기체계(autonomous weapons systems)를 직접 지휘하는 데 사용될 수 없다.
  3. 오픈AI 기술은 중대한 고위험 자동화 결정(high‑stakes automated decisions)을 내리는 데 사용될 수 없다.

회사는 또한 “우리는 우리의 safety stack(안전 소프트웨어·프로세스 집합)에 대한 완전한 재량권을 유지한다. 우리는 클라우드를 통해 배치하고, 보안 심사를 통과한(cleared) 오픈AI 인력이 운영에 관여하며, 강력한 계약상 보호장치를 마련했다”고 설명했다.

“우리는 우리의 합의가 분류된 AI 배치에 관한 이전의 어떤 합의보다 더 많은 가드레일을 포함하고 있다고 생각한다.”


계약 금액 및 국방부의 전반적 전략

로이터는 지난 1년 동안 미 국방부가 앤트로픽, 오픈AI, 구글(Google) 등 주요 AI 연구소들과 각각 최대 $2억 달러까지의 계약을 체결했다고 전했다. 미 국방부는 방위 역량 유지와 관련해 기술 제공자의 경고에 제한받지 않는 유연성을 확보하려는 것으로 알려졌다. 트럼프 행정부는 국방부 명칭을 일부 보도에서 ‘Department of War(전쟁부)’로 호칭하는 등 강경한 대외정책·안전 우선 기조를 보이고 있다.


계약 위반 시 조치 및 오픈AI의 입장

오픈AI는 미국 정부가 계약을 위반할 경우 계약 해지(termination)를 촉발할 수 있다고 경고했으나, 동시에 “우리는 그런 일이 발생할 것으로 기대하지 않는다(We don’t expect that to happen)”고 밝혔다. 회사는 또한 경쟁사인 앤트로픽이 ‘공급망 리스크’로 낙인찍혀서는 안 된다고 주장하며, “우리는 이 문제에 대한 우리의 입장을 정부에 명확히 전달했다”고 덧붙였다.


용어 해설

다음은 기사에 등장한 주요 용어에 대한 설명이다.

공급망 리스크(supply‑chain risk): 제품 또는 서비스 개발에 관여하는 기업·하청업체·부품·소프트웨어 등 공급망 전반에서 발생하는 보안·신뢰성·연속성 문제를 의미한다. 정부가 특정 기업을 공급망 리스크로 지정하면 해당 기업과의 계약·협력 관계에 법적·행정적 제약이 생길 수 있다.

분류된 네트워크(classified network): 국가 안보상 기밀 등급이 매겨진 정보가 저장·교환되는 전용 네트워크를 뜻한다. 분류된 네트워크에 접속하기 위해서는 별도의 보안 심사와 인증이 필요하다.

Safety stack: AI의 안전성을 확보하기 위한 소프트웨어·하드웨어·운영 절차 및 인력의 집합이다. 여기에는 유해한 출력 차단, 사용 목적 제한, 접근 통제, 감사 로그 등 다양한 층위의 방어가 포함된다.

Cleared personnel(보안심사 통과 인력): 군·정부의 분류된 정보 접근을 허가받은 인력으로, 엄격한 배경조사와 보안심사를 통과해야 분류된 네트워크와 시스템에 접근할 수 있다.


실무적·정책적 의미

이번 공개는 몇 가지 중요한 함의를 지닌다. 첫째, 민간 AI 기업이 군사적 활용과 관련된 윤리적·법적 경계를 명시적으로 계약서 수준에서 설정하려는 시도가 확대되고 있다. 둘째, 미 연방정부 내부에서 기술 공급자에 대한 규제·제재(예: 공급망 리스크 지정)를 둘러싼 정치적 갈등이 기술 도입 과정에 실질적 불확실성을 더하고 있다. 셋째, 미 국방부가 주요 AI 기업들과 수억 달러 규모의 계약을 체결하면서도, 동시에 기술 제공자에 의한 자율적 안전장치의 유지와 운영 참여를 요구한 점은 앞으로의 국방 AI 도입 방식이 ‘완전한 내재화’보다는 ‘민관 협력과 통제의 혼합 모델’로 전개될 가능성을 시사한다.


시장·경제적 영향 분석

단기적으로는 특정 AI 기업에 대한 정치적·규제적 불확실성 증가가 해당 기업의 주가와 투자 심리에 부정적으로 작용할 수 있다. 예컨대, 정부의 공급망 리스크 지정 위험은 앤트로픽 관련 투자가 축소되거나 계약이 지연되는 결과를 초래할 수 있으며, 이는 AI 생태계 전반에 대한 투자 리스크 프리미엄 상승을 유발할 가능성이 있다. 반면 오픈AI와 같은 기업이 계약상 명확한 안전장치를 제시하면 방산 계약을 통한 수익원 확보와 함께 기업 신뢰도를 제고할 수 있어 장기적으론 긍정적 효과가 있을 수 있다.

또한 이번 사안은 대형 기술주(예: 마이크로소프트, 구글)와 방위 산업체(예: 방산 하청업체)의 실적 전망에도 영향을 미칠 수 있다. 미 국방부가 AI 기술을 더 광범위하게 도입할 경우 관련 클라우드 서비스, 데이터 센터, 보안 인프라, 맞춤형 AI 솔루션을 제공하는 기업들에게 수요가 확대될 가능성이 있다. 반면 정치적 논란이 고조되면 일부 프로젝트는 재검토·지연되어 단기적인 매출 변동성이 커질 수 있다.


향후 전망

앞으로 몇 주에서 몇 달 사이에 주목할 핵심 포인트는 다음과 같다. 첫째, 미 국방부의 앤트로픽에 대한 공식적인 공급망 리스크 지정 여부와 이에 대한 법적 절차의 전개다. 둘째, 오픈AI의 계약문서에 명시된 안전 조항의 세부 적용 방식과 실제 운영에서의 준수 여부다. 셋째, 민간 AI 기업과 정부 간의 계약 모델이 표준화되는지 여부로, 이는 향후 방산 AI 시장의 진입장벽과 경쟁 구도를 결정할 요인이다.

종합하면, 이번 공개는 AI와 국방의 결합 과정에서 기술적 안전성, 법적·정책적 통제장치, 그리고 시장적 파급효과가 복합적으로 맞물리는 전형적인 사례다. 향후 계약 이행 과정과 규제 당국의 판단이 향후 AI 산업의 대외 협력과 투자 흐름을 좌우할 가능성이 크다.