오픈AI의 최고경영자 샘 알트먼(Sam Altman)은 자사 인공지능 서비스가 미(美) 국방부와의 기존 계약에 대해 일부 수정을 진행하고 있다고 밝혔다. 알트먼은 소셜미디어 플랫폼 X에 올린 글을 통해 이 같은 내용을 전했다.
2026년 3월 2일, 로이터 통신의 보도에 따르면, 알트먼은 “We have been working with the DoW (Department of War) to make some additions in our agreement to make our principles very clear“라고 적으면서 계약에 명확성을 더하는 추가 조항들을 미 국방부와 협의하고 있다고 밝혔다.
알트먼의 게시 내용 일부
“We have been working with the DoW (Department of War) to make some additions in our agreement to make our principles very clear.”
알트먼은 또한 이번 수정안 가운데 하나로 국방부 산하 정보기관(예: NSA)은 오픈AI의 서비스를 사용하지 않기로 명확히 확인했다고 전했다. 그는 이어 그러한 기관에 서비스를 제공하려면 계약의 후속 수정(follow-on modification)이 필요하다고 설명했다.
이번 발표은 오픈AI가 방위부의 분류된(classified) 네트워크에 자사의 기술을 배치하기 위한 계약을 체결했다고 지난주 공개한 직후 나왔다. 알트먼의 발언은 해당 계약의 범위와 원칙을 명확히 하려는 후속 조치의 일환으로 읽힌다.
핵심 사실 요약
발언자: 샘 알트먼(Sam Altman), 오픈AI 최고경영자
주요 기관: 오픈AI, 미 국방부(DoD), 게시물에 언급된 ‘DoW (Department of War)’ 및 예시로 제시된 NSA
발표 시점: 2026년 3월 2일(로이터 보도), 원문 게시 후 2026년 3월 3일 01:48:26에 관련 보도(퍼블리시드 타임 포함)
용어 설명
· DoD(Department of Defense): 미국의 국방부로 군사 정책과 부대를 총괄하는 정부 기관이다. 기사 원문과 알트먼 인용문에는 ‘DoW (Department of War)’라는 표현이 등장하는데, 이는 역사적 혹은 의도적 용어 사용의 차이로 보이며 본문에서는 원문 인용을 그대로 표기했다.
· NSA(National Security Agency): 미국 국가안보국으로 신호정보(SIGINT) 수집과 정보보호 임무를 수행하는 정보기관이다.
· 분류된 네트워크(classified network): 군사 및 국가 안보 관련 민감 정보를 다루는 보안 등급이 적용된 네트워크 환경을 뜻한다.
· 후속 수정(follow-on modification): 이미 체결된 계약에 추가 조항이나 변경을 공식적으로 반영하는 행정적·법적 절차를 의미한다.
분석: 계약 수정의 의미
이번 알트먼의 언급은 두 가지 측면에서 중요하다. 첫째, 민간 AI 기업과 군사·정보 기관 간 협력의 경계를 명확히 하려는 시도로 해석된다. 알트먼은 명시적으로 일부 정보기관에 대한 서비스 제공을 일차적으로 배제하고, 만약 제공할 경우에는 별도의 계약 수정이 필요하다고 밝힘으로써 법적·윤리적 책임 주체와 절차를 분명히 했다. 둘째, 분류된 네트워크에의 기술 배치는 이미 합의된 사안이지만, 그 범위와 적용 대상에 대해 추가적인 정책적 합의가 진행 중임을 시사한다.
시장·산업적 영향 전망
단기적으로는 이번 발표가 오픈AI의 기업 이미지와 정부와의 협력 방식에 대한 투자자·업계의 불확실성을 일부 해소할 수 있다. 다만 구체적 계약 조건(범위, 보안 요건, 감사·통제 메커니즘 등)이 공개되지 않은 상태이므로 기술 상용화와 리스트된 제품의 매출에 미치는 직접적인 영향은 즉각적이지 않을 가능성이 크다. 장기적으로는 군사용·국방 분야에서의 AI 도입이 확대될 경우, 관련 보안 솔루션 공급업체와 클라우드 인프라 제공업체의 수요가 증가할 것으로 예상되며 이는 국방·안보 AI 생태계 전반의 성장을 촉진할 수 있다.
정책적·윤리적 고려사항
민간 AI 기술을 군사 환경에 도입할 때는 책임성(accountability), 투명성(transparency), 통제 가능성(ability to control) 등 핵심 원칙을 어떻게 보장할지가 중요하다. 알트먼의 발언은 원칙을 명확히 하겠다는 의도로 해석되지만, 실제 운영 단계에서는 데이터 접근 통제, 알고리즘의 설명 가능성, 오작동 시 책임 소재 규정 등이 구체적으로 마련돼야 한다. 이러한 조치가 부족할 경우 규제 리스크 및 사회적 반발이 커질 수 있다.
추가 관측
업계 관측에 따르면, 민간 AI 기업이 정부의 분류 네트워크에 진입하는 사례는 기술적 신뢰성 확보와 함께 거버넌스 측면의 적응을 요구한다. 오픈AI의 경우 자사 모델이 군사 목적에 어떻게 활용되는지를 통제하고 명료화하려는 시도를 보이고 있어, 향후 계약 협상 과정에서 서비스 사용 주체의 범위와 감사·검증 절차가 주요 쟁점이 될 가능성이 높다.
결론
샘 알트먼의 발표는 오픈AI와 미 국방부 간 협력의 윤곽을 보다 명확히 하려는 노력으로 이해할 수 있다. 향후 공개될 계약 수정안의 세부 내용이 국내외 기술·안보 정책과 시장에 미치는 영향을 면밀히 관찰할 필요가 있다.






