샘 올트먼(OpenAI 최고경영자)은 2026년 2월 19일 인도 뉴델리에서 열린 AI 임팩트 서밋에 참석했다. 해당 행사에서의 모습은 언론 사진으로 공개되었으며, 올트먼은 이후 자사 직원들에게 보내는 메모를 통해 현안을 설명했다.
2026년 2월 27일, CNBC의 보도에 따르면 올트먼은 목요일 늦은 시간 직원들에게 보낸 메모에서 경쟁사 앤트로픽(Anthropic)과 미 국방부(Department of Defense, DOD) 사이의 긴장 완화를 위해 오픈AI가 가능한 역할을 하기를 원한다고 밝혔다.
올트먼이 직원들에게 전달한 메모는 CNBC가 열람했으며, 메모에서 그는 “우리는 오랫동안 인공지능이 대규모 감시나 자율 치명무기에 사용되어서는 안 되며, 중요한 자동화 의사결정에는 인간이 관여해야 한다고 믿어왔다”면서 “이것들이 우리의 주된 금지선(red lines)이다”라고 명시했다.
“We have long believed that AI should not be used for mass surveillance or autonomous lethal weapons, and that humans should remain in the loop for high-stakes automated decisions. These are our main red lines.”
메모 공개에 앞서 오픈AI 내부에서는 일부 직원들이 소셜미디어와 내부 서한을 통해 앤트로픽을 지지하는 목소리를 내기 시작했다. 현재 약 70명의 현직 직원이 “We Will Not Be Divided”(우리는 분열되지 않을 것이다)라는 공개서한에 서명했으며, 이 서한은 미 국방부의 압력에 대해 공감대와 연대를 호소하는 내용이다.
앤트로픽은 현지시간 금요일 오후 5시 01분(ET)까지 미 국방부가 자사 AI 모델을 모든 합법적 사용 사례에 제한 없이 사용할 수 있도록 허용할지 여부를 결정하도록 통지를 받은 상태다. 앤트로픽은 자사의 기술이 완전 자율 무기(fully autonomous weapons)나 미국 내 대규모 감시(domestic mass surveillance)에 사용되지 않을 것이라는 보장을 원했으나, 미 국방부는 아직 입장을 바꾸지 않았다.
올트먼은 CNBC와의 인터뷰에서 “앤트로픽과 많은 차이점이 있지만, 나는 그들이 안전에 진심으로 신경 쓴다고 대부분 신뢰한다”고 말했고, “그들이 우리 전투요원들을 지원해온 것에 대해 고마움을 느낀다”며 “이 일이 어떻게 전개될지는 확신할 수 없다”고 덧붙였다.
오픈AI는 지난해(2025년) 미 국방부로부터 2억 달러(약 2억 달러) 규모의 계약을 수주했으며, 이 계약은 기관이 오픈AI의 모델을 비밀이 아닌(non-classified) 사용 사례에서 사용하기 시작할 수 있도록 허용했다. 반면 앤트로픽은 인공지능 연구소 중 처음으로 자사 모델을 기밀(classified) 네트워크의 임무 워크플로에 통합한 사례로 알려져 있다.
올트먼은 메모에서 오픈AI가 자사의 원칙에 부합하는 방식으로 기밀 환경에 모델을 배치할 수 있도록 미 국방부와 합의를 모색하겠다고 밝혔다. 그는 기술적 안전장치를 구축하고, 운영을 확인하기 위한 인력을 배치해 “작동이 제대로 되는지 확인하겠다”고 밝혔다.
“We would ask for the contract to cover any use except those which are unlawful or unsuited to cloud deployments, such as domestic surveillance and autonomous offensive weapons.”
올트먼은 최근 며칠간 이 주제에 대해 여러 차례 회의가 있었으며, 회사는 아직 최종 결정을 내리지 않았다고 전했다. 그는 금요일에 오픈AI의 안전팀들과 추가 회의를 가질 것이라고 밝혔다. 메모는 또한 “옳은 일을 하는 것이 중요하다, 즉 강해 보이지만 불성실한 쉬운 길을 택하지 않겠다는 것”이라고 강조했다.
용어 설명
앤트로픽(Anthropic)은 미국의 인공지능 연구 스타트업으로, 안전 중심의 AI 개발을 표방하며 대형 언어 모델 등을 개발하는 회사다. 미 국방부(DOD)는 미국 연방정부의 국방을 책임지는 기관으로, 인공지능 기술을 군사 작전 및 정보 시스템에 적용하는 방안을 검토·적용하고 있다. 기사에서 언급되는 ‘인간이 개입하는 구조(humans in the loop)’는 중요한 자동화 의사결정 과정에서 최종 판단을 인간이 하도록 하는 설계를 의미하며, 이는 자율 무기의 완전 자동화(‘human out of the loop’)를 방지하기 위한 안전 장치다. 또한 기밀(classified) 네트워크은 국가 안보와 관련된 비공개 정보가 오가는 네트워크를 가리키며, 클라우드 배포에 부적합한 활용 사례는 기술적·법적·윤리적 위험으로 인해 클라우드 환경에서 운용하기 어려운 경우를 뜻한다.
시장·정책적 영향 분석
이번 사안은 기술 기업과 정부 간 계약 관계, AI 안전성·윤리 기준 설정, 그리고 인력 내부의 정치·윤리적 갈등을 동시에 부각시킨다. 단기적으로는 방위 산업 관계자 및 AI 공급업체 간의 협상 구도와 계약 범위가 불확실성을 유지하면서 관련 기업의 협상력·평판에 영향을 줄 가능성이 있다. 오픈AI가 기밀 환경에서의 사용을 원칙에 맞게 수용하면서도 안전장치를 요구한다면, 미 정부의 방침은 기술적 통제와 법적·윤리적 제한을 더 엄격히 규정하는 방향으로 나아갈 수 있다.
금융 시장 관점에서는 직접적인 상장 주식의 즉각적 가격 변동을 예단하기 어렵지만, 장기적으로는 대형 AI 기업들과 이들과 거래하는 클라우드·칩셋 공급업체(예: 클라우드 제공업체, 반도체 업체 등)의 계약 파이프라인과 수익성에 영향을 미칠 수 있다. 특히 이번 보도에서 언급된 바와 같이 오픈AI의 대규모 자금조달(1100억 달러 규모 펀딩 관련 보도 언급)이 이어지는 상황에서는 투자자들이 AI 기업들의 국방 관련 계약 수주 여부와 규제·윤리 리스크를 더 민감하게 평가할 가능성이 있다.
정책적 측면에서는 미국 내에서 AI의 군사적 활용에 대한 사회적·정치적 논의가 심화될 것으로 보인다. 기업이 스스로 제시한 금지선(red lines)이 실제 계약 조건으로 반영될지 여부는 향후 규범 형성 과정에서 중요한 선례가 될 수 있다. 만약 기업들이 자율 무기와 대규모 감시에 대해 공동의 기준을 만들고 이를 계약에 반영하는 관행이 확산된다면, 글로벌 AI 규범에도 영향을 미칠 가능성이 있다.
종합적 관찰
이번 사안은 단순한 기업 간 경쟁을 넘어 안전·윤리 기준 수립과 정부의 안보 수요 간의 균형을 가늠하게 하는 시험대다. 오픈AI의 올트먼은 내부 메모와 공개 발언을 통해 앤트로픽의 염려를 공유하며 긴장 완화에 나서려 한다고 밝혔고, 이는 업계 전반에서의 협력 가능성을 열어두는 시도로 해석된다. 다만 미 국방부와의 협상 결과, 계약 문구의 구체성, 기술적 안전장치의 실효성 여부가 최종 판결을 좌우할 것이며, 이 과정에서 산업계·투자자·정책입안자 모두가 주의 깊게 상황을 관찰해야 한다.
— 해당 보도에는 CNBC의 취재 내용과 메모 열람, 월스트리트저널의 최초 보도 내용이 포함되어 있다. (CNBC의 케이트 루니 기자가 이 보도에 기여했다.)






