오픈AI(OpenAI)의 최고경영자(CEO) 샘 알트먼(Sam Altman)이 최근 미국 국방부(Department of Defense)와의 계약 체결 과정이 성급했다고 공개적으로 인정하고 계약 조항을 일부 수정하겠다고 밝혔다.
2026년 3월 3일, 로이터 통신의 보도에 따르면, 알트먼 CEO는 이번 발표가 백악관이 경쟁사인 Anthropic의 도구 사용을 연방 기관에 대해 중단하라고 지시한 직후, 그리고 워싱턴이 이란에 대한 공습을 수행하기 몇 시간 전에 이뤄진 점 때문에 논란이 커졌다고 설명했다.
오픈AI는 금요일에 국방부와 새로운 계약을 체결했다고 발표했다. 이 발표는 알트먼이 소셜미디어 플랫폼 X(구 트위터)에 올린 글을 통해 알려졌으며, 이후 알트먼은 계약 일부를 수정해 특정 문구를 추가하겠다고 밝혔다.
알트먼은 X 게시물에서 계약 수정 내용을 공개하면서 “
AI 시스템은 미국인 및 미국 국민에 대한 국내 감시에 의도적으로 사용되어서는 안 된다
“는 문구를 포함시키겠다고 밝혔다. 또한 국방부가 NSA(미국 국가안보국)와 같은 정보기관들이 오픈AI의 도구를 사용하지 않도록 확인해주었다고 덧붙였다.
알트먼은 이번 사안과 관련해 “이 기술이 아직 준비되지 않은 분야가 많고, 안전을 위해 요구되는 트레이드오프(상충관계)를 아직 이해하지 못한 영역이 많다“고 말하며, 오픈AI가 국방부와 함께 기술적 안전장치를 마련할 것이라고 밝혔다.
그는 아울러 자신이 실수를 했음을 시인하며 “금요일에 (계약 발표를) 성급하게 서둘러선 안 됐다“고 말했다. 그는 이번 발표가 진정으로 긴장 완화를 시도하려는 의도였지만, 외부에는 기회주의적으로 보이고 부주의하게 보였다고 설명했다.
이번 인정은 경쟁사 앤트로픽(Anthropic)과 워싱턴 행정부 간의 공개적인 갈등 이후에 나왔다. 앤트로픽은 자사 AI 시스템 클로드(Claude)의 안전장치에 관한 보장을 요구해왔다. 국방장관 피트 헤그세스(Pete Hegseth)은 앤트로픽을 공급망 위험(supply-chain threat)으로 지정하겠다고 말한 바 있다.
앤트로픽은 자사의 도구가 미국 내에서의 국내 감시나, 인간의 통제를 벗어난 자율무기(autonomous weapons) 개발 및 운용에 사용되지 않도록 보장해달라고 요구했다. 이와 관련해 ‘공급망 위험 지정’은 정부가 특정 업체의 기술·서비스를 국가안보 차원에서 잠재적 위협으로 판단해 조달 및 협력에서 제한할 수 있음을 의미.
이번 분쟁은 앤트로픽의 클로드가 1월에 베네수엘라 대통령 니콜라스 마두로(Nicolás Maduro)를 포획하기 위한 작전에 미군이 사용한 사례가 알려지면서 시작됐다고 보도됐다. 다만 앤트로픽은 해당 사용 사례에 대해 공개적으로 이의를 제기하지 않았다.
오픈AI와 국방부의 계약 발표는 앤트로픽과 국방부 간의 협상이 결렬된 직후에 이뤄져 온라인상에서 큰 반발을 불러일으켰다. 일부 이용자들은 앱스토어에서 챗GPT(ChatGPT)를 삭제하고 클로드로 전환한 것으로 알려졌으며, 한 외신 보도에서는 챗GPT의 삭제가 약 295% 급증했다고 전했다.
알트먼은 주말 동안의 대화에서 앤트로픽이 ‘공급망 위험’으로 지정되어서는 안 된다고 재차 강조했으며, 국방부가 앤트로픽에도 자신들이 합의한 것과 동일한 조건을 제공하기를 바란다고 밝혔다.
용어 설명
Anthropic(앤트로픽): 인공지능(AI) 연구 및 제품 개발을 하는 미국의 민간 기업으로, 자사 모델인 Claude를 통해 대화형 AI 서비스를 제공한다.
Claude(클로드): 앤트로픽이 개발한 대형 언어 모델(LLM) 이름으로, 챗봇 형태의 AI 비서 역할을 수행한다.
X(구 트위터): 샘 알트먼 등 기술업계 인사들이 의견을 표명하는 소셜미디어 플랫폼.
NSA(미국 국가안보국): 미국의 주요 정보·감시 기관 중 하나로, 통신기사찰 및 신호정보(SIGINT)를 담당한다.
공급망 위험(supply-chain threat): 정부가 특정 기업이나 제품을 국가안보 차원에서 공급망의 취약점으로 판단해 조달 제한, 거래 제재 등을 검토하는 상태를 의미한다.
후속 조치 및 기술·정책적 함의
오픈AI의 계약 수정 발표와 알트먼의 사과는 회사 이미지 및 신뢰성 회복을 위한 조치로 해석된다. 계약에 명시적으로 “국내 감시에 사용하지 않음”을 포함시키고 정보기관 사용을 제한한다는 확인을 추가한 것은 법적·윤리적 우려를 완화하려는 시도로 보인다.
그러나 이러한 수정 조항이 현실적인 운영 관행과 기술적 통제(mechanisms)에 의해 얼마나 보장될 수 있는지는 별도의 검증 문제가 남아 있다. AI 시스템은 다목적성으로 인해 특정 사용 사례를 기술적·정책적으로 완벽히 차단하는 것이 어렵고, 제3자(민간업체·협력사)와의 연계 상황에서 통제권이 제한될 수 있다.
시장·경제적 영향 분석
단기적으로는 이번 사태가 이용자 신뢰와 플랫폼 사용 패턴에 영향을 미치는 것으로 보인다. 앞서 언급된 앱 삭제 급증 사례와 같이 이용자들의 빠른 반응은 AI 업체들의 사용자 유지 비용 증가 및 마케팅·평판 관리 비용 상승으로 이어질 수 있다. 또한 기업 고객이나 정부 기관과의 계약에서 신뢰·안전성 검증 요구가 강화되면, 계약 체결 과정이 지연되고 준수 비용(compliance cost)이 증가할 가능성이 크다.
중장기적으로는 정부와의 협력에 따른 수익 확보와, 반대로 규제·감시 강화로 인한 제약 사이에서 기업 가치의 재평가가 이루어질 수 있다. 민간 AI 기업들이 방위 분야에 진출할 경우 단기 수익원은 확보될 수 있으나, 공공 신뢰 저하·규제 리스크·인수합병(M&A)에서의 불확실성 증가 등이 투자자 관점에서 위험요인으로 작용할 수 있다.
정책적 권고 및 향후 전망
이번 사건은 AI 기업과 정부 간의 계약에 있어 투명성과 명확한 사용 제한, 그리고 기술적 안전장치의 독립적 검증이 얼마나 중요한지를 재확인시켰다. 정부는 국가안보와 공공의 이익을 고려하되, 특정 기업을 일방적으로 배제하거나 급격한 규제를 통해 경쟁을 저해하지 않도록 절차적 공정성을 확보할 필요가 있다.
기업 측면에서는 계약 조건을 공개하고, 외부 감사·검증 메커니즘을 도입하며, 기술적 차단(예: 접근 권한 분리, 사용 로그의 독립적인 감시 등)을 구체화하는 것이 향후 계약 성사와 신뢰 회복에 도움이 될 것이다.
결론
샘 알트먼의 공개적 인정과 계약 문구 수정 약속은 이번 논란을 완화하려는 시도로 보이나, 근본적인 해결을 위해서는 기술적·법적·절차적 보완이 필요하다. 이번 사안은 AI 기술의 군·민 활용 경계, 기업의 윤리적 책임, 정부의 조달·안보 판단이 교차하는 전형적인 사례로 기록될 것이다. 향후 관련 업체들의 계약 관행 변화와 규제 당국의 대응을 통한 시장 구조 재편 가능성을 면밀히 관찰할 필요가 있다.











