오픈AI 최고경영자(CEO) 샘 올트먼은 직원 대상 전체회의에서 미국 국방부(DoD)의 인공지능 활용에 관한 구체적 작전 결정은 회사가 하는 것이 아니다라고 밝혔다.
2026년 3월 3일, CNBC 뉴스의 보도에 따르면, 올트먼은 화요일 열린 전사(全社) 회의에서 회사가 국방부의 기술 활용에 대해 “운영상 결정을 내릴 권한을 갖고 있지 않다(“you don’t get to make operational decisions”)”고 말했다. 회의에서 그는 일부 발언을 통해 “아마도 어떤 이는 이란에 대한 공격은 옳았고 베네수엘라 침공은 잘못됐다고 생각할 수 있다”면서 “그런 부분에 대해 (우리 직원들이) 판단할 수는 없다(“You don’t get to weigh in on that”)고 직접 말했다. 이 회의 내용의 일부는 CNBC가 입수한 부분 기록으로 확인됐다.

이 회의는 오픈AI가 국방부와의 새로운 협력을 발표한 지 4일 후에 열렸으며, 이 협력 발표는 미국과 이스라엘이 이란에 대한 공습을 시작한 바로 몇 시간 전에 공개된 바 있다. 회의에 참석한 한 관계자는 기자에게 국방부는 오픈AI의 기술적 전문성을 존중하며, 어떤 모델이 적합한지에 대한 의견을 원하고 회사가 적절하다고 판단하는 안전성(safety) 스택을 구축하도록 허용하겠다는 입장을 표명했다고 전했다. 다만 그 관계자는 회의가 비공개로 진행돼 익명 보도를 요청했다.
올트먼은 또한 국방부 측이 운영상 결정은 국방장관 피트 헤그세스(Pete Hegseth)에게 있다고 분명히 했다고 말했다. 오픈AI는 이번 국방부와의 협력 발표 직후 내부와 외부에서 거센 비판을 받았다. 비판은 특히 경쟁사인 Anthropic이 블랙리스트에 올랐고 “공급망 위험(Supply-Chain Risk)으로서 국가안보에 위협을 준다“는 평가를 받은 직후 나온 것이었다. 또한 도널드 트럼프 전 대통령은 모든 연방 기관에 대해 Anthropic 기술 사용을 즉시 중단하라고 지시한 바 있다.
회의 중 인용된 발언: “So maybe you think the Iran strike was good and the Venezuela invasion was bad. You don’t get to weigh in on that.”

CNBC 보도에 따르면, Anthropic의 인공지능 모델은 주말 이란 공습과 지난 1월 퇴출된 베네수엘라 지도자 니콜라스 마두로(Nicolas Maduro) 및 그의 배우자 실리아 플로레스(Cilia Flores) 체포 과정에서 사용된 것으로 전해졌다. Anthropic은 국방부의 기밀망(classified network)에 자사 모델을 처음 배포한 연구소였고, 이후 계약 조건 협상 과정에서 군사적 사용 범위에 관한 이견으로 논의가 결렬된 것으로 알려졌다. Anthropic 측은 자사 모델이 완전 자율무기(fully autonomous weapons)나 미국인의 대규모 감시에 사용되지 않도록 보장받기를 원했으나, 국방부는 합법적 사용 사례 전체(lawful use cases)에 걸쳐 모델 사용을 허용할 것을 요구했다.
한편, 오픈AI는 지난해 2025년 6월 16일 미국 국방부로부터 $200 million(2억 달러) 규모의 계약을 수주해 비기밀(non-classified) 용례에서 자사 모델을 사용하도록 허용받은 바 있다. 이번 새로운 합의는 이 모델들을 국방부의 기밀 네트워크(classified networks) 전반에 배치할 수 있도록 허용하는 내용을 포함한다. 또한 일론 머스크의 xAI도 기밀 용례로 모델을 배치하는 데 동의한 것으로 전해졌다.
올트먼은 내부 소셜미디어(플랫폼 X)에서 이번 계약을 옹호하면서도 공개 시점과 방식에 대해선 일부 수용적 입장을 보였다. 그는 게시물에서 이번 발표가 “기회주의적이고 성급하게(overly opportunistic and sloppy) 보였으며 금요일에 발표를 서두르지 말았어야 했다”고 인정했다. 동시에 그는 국방부가 안전을 깊이 존중하고 최선의 결과를 도출하기 위해 협력하려는 의지를 보였다고 강조했다.
올트먼은 회의에서 또 다른 경쟁 주체로서 머스크의 xAI를 지목하며 “우리가 안전성 스택을 견고히 하면 정부가 우리와 협력하려 할 것이라 믿는다. 하지만 적어도 다른 한 행위자(xAI)는 ‘원하시는 대로 다 해드리겠습니다’라고 말할 것”이라고 발언했다. 올트먼과 머스크는 오픈AI를 함께 창업한 인물로서 현재 법적 분쟁을 벌이고 있으며, 그 소송은 보도 시점 기준 다음 달로 예정된 재판을 앞두고 있다. xAI 측은 이 보도에 즉시 응답하지 않았다.
용어 설명(비전문가를 위한 안내)
• 국방부(DoD): 미국의 방위와 군사 전략을 관장하는 연방행정기관으로, 군사 작전과 관련된 정책·운영 결정을 내린다. 국방부의 결정은 군사 지휘체계와 대통령, 국방장관 등 정부 고위층의 권한과 절차에 따라 이루어진다.
• 기밀 네트워크(classified networks): 국가 안보상 민감한 정보와 작전자료를 처리하는 통신망으로, 일반 상용망과는 별도로 엄격한 보안 규정과 접근 통제 하에 운영된다.
• 안전성(safety) 스택: 인공지능 모델을 실무에 적용할 때 오남용, 오작동, 편향 등 위험을 줄이기 위해 설계하는 기술적·운영적·정책적 방어층들의 집합을 의미한다. 예컨대 입력 필터링, 모델 응답 제어, 인간 승인(Human-in-the-loop) 절차 등이 포함된다.
• 완전 자율무기(fully autonomous weapons): 인간의 직접적 통제를 받지 않고 스스로 표적을 식별·공격할 수 있는 무기시스템을 지칭한다. 이러한 무기의 개발·배치 여부는 국제적·윤리적 논쟁 대상이다.
전문가 평가와 향후 전망
이번 사안은 기술기업과 정부 간 계약이 안전성, 법적·윤리적 책임, 작전 통제권이라는 세 가지 축에서 충돌할 수 있음을 분명히 드러낸다. 여러 시장·국방분야 분석가들은 다음과 같은 점들을 주목한다:
1) 공급망 및 경쟁구도 변화: 국방부가 민간 AI 기업의 모델을 기밀망에 도입함에 따라 민간 기업 간 경쟁이 심화될 가능성이 크다. OpenAI, Anthropic, xAI 등 주요 연구소·기업은 국방 수요에 맞춘 보안·안전성 기능 개발에 자원을 투입할 것이며, 이는 단기적으로는 비용 상승을 유발하나 장기적으로는 기술 성숙과 제품 고도화로 이어질 수 있다.
2) 재무·사업적 영향: 오픈AI와 같은 기업은 국방부 계약을 통해 안정적 매출원과 장기 협력 기회를 얻을 수 있다. 비상장 또는 투자 의존도가 높은 기업의 경우, 방위분야 계약 수주는 투자 유치와 밸류에이션에 긍정적 신호가 될 수 있다. 다만, 정부 관련 사업은 규제·정책 변화의 영향을 크게 받으므로 수익화 시점과 규모는 불확실하다.
3) 정책·정치적 리스크: 이번 사안은 기술 채택의 속도와 투명성, 직원들의 윤리적 우려가 충돌하는 전형적 사례다. 내부 반발과 공공의 감시가 강해질 수 있으며, 의회나 규제기관의 추가 감독·규제가 도입될 가능성이 있다. 또한 정치적 명령(예: 특정 기업 기술 사용 중단 명령)은 계약 리스크를 키우는 요인이 된다.
4) 기술적 대응과 안전성 강화: 기업은 안전성 스택을 강화하고 인간 감독 체계, 감사가능성(auditability), 사용사례 제한 등으로 리스크를 완화해야 한다. 이는 제품 개발 주기와 비용을 늘리지만, 상업적 신뢰성과 장기적 계약 유지를 위해 필수적이다.
전문가들은 종합적으로 볼 때, 군(軍)·정부용 AI 도입은 민간 AI 생태계의 기술·사업 구조를 재편할 가능성이 크며, 기업들은 규범 준수와 기술적 신뢰 확보에 집중해야 한다고 조언한다.
결론
샘 올트먼의 발언은 오픈AI 내부에 남아 있는 윤리적 우려와 외부의 정치적 압력 사이에서 회사가 처한 복잡한 위치를 단적으로 보여준다. 운영적 결단권이 국방부에 있음을 분명히 함으로써 오픈AI는 기술적 지원과 안전성 장치 제공이라는 역할을 강조하였으나, 동시에 외부의 정책 변화와 경쟁사들의 태도는 회사의 대내외적 리스크를 지속적으로 자극할 전망이다. 향후 규제, 의회 청문, 기업의 내부 거버넌스 개선, 그리고 기술적 안전장치의 공개 수준이 이러한 논란의 향배를 가를 핵심 변수로 관찰된다.
참고: 이 보도에는 CNBC의 Kate Rooney 기여가 포함되어 있다.









