오픈AI(OpenAI) 최고경영자 샘 올트먼(Sam Altman)이 자사 인공지능(AI) 도구의 미 국방부(펜타곤) 사용 허용 결정을 두고 제기된 직원 및 업계의 우려에 대해 공개적으로 입장을 밝혔다.
2026-03-03, 인베스팅닷컴의 보도에 따르면, 오픈AI는 최근 국방부와의 협약을 공개했고 이 발표는 같은 날 국방장관 피트 헤그세스(Pete Hegseth)이 경쟁사인 앤트로픽(Anthropic)을 “공급망 위험(supply-chain risk)”이라고 지목한 시점과 맞물렸다. 오픈AI는 공개 직후 해당 협약의 적용 범위와 관련해 비판이 일자 국내 감시(domestic surveillance) 활동을 명시적으로 금지하는 조항을 추가해 협약 문구를 수정했다.
오픈AI 내부 직원들과 실리콘밸리 전반의 AI 연구자들은 최근 며칠간 이 같은 결정에 대해 공개적으로 비판을 제기했다. 비판의 핵심은 이번 협약이 “법적으로 허용되는 모든 상황(all lawful scenarios)”에 AI 기술의 사용을 허용하도록 합의한 것으로 해석될 수 있다는 점이며, 이는 대규모 감시 가능성을 초래할 수 있다는 우려로 이어졌다.
샘 올트먼의 발언
사내 회의에서 올트먼은 국방부와의 협약을 체결한 것에 대해 후회하지 않는다고 말했지만, 발표 시점과 방식이 문제가 있었다는 점을 인정했다고 한다. 그는 직원들에게 해당 발표(롤아웃)가 “opportunistic(기회주의적)”이며 “not united with the field(업계와 단일하지 않다)”고 보였다고 밝혔다. 이는 그가 월요일에 직원들에게 배포하고 X(구 트위터)에 게시한 메모에서 이번 협약을 “opportunistic and sloppy(기회주의적이고 조잡하게 보인다)”고 표현한 내용과 일치한다.
이 같은 발언과 메모는 월스트리트저널(The Wall Street Journal)이 검토한 발언 내용을 통해 공개됐다. WSJ가 리뷰한 발언에 따르면 올트먼은 협약 자체에 대한 후회는 표명하지 않았으나, 공개 시기와 내부적 조율에 관한 부족을 인정하는 취지의 설명을 했다고 전해진다.
핵심 쟁점 정리
1) 협약 공개 시점
오픈AI는 금요일에 국방부와의 협약을 공개했으며, 공개 직후 내부 직원들과 업계에서 강한 반발이 일었다. 이러한 반발은 발표 시점이 불명확했고 외부와의 소통이 충분치 않았다는 점을 주요 문제로 지적한다.
2) 국내 감시 금지 조항
비판이 제기되자 오픈AI는 협약 문구를 수정해 명시적으로 국내 감시 활동을 금지한다고 명기했다. 다만 일부 연구자들은 법적인 문구의 해석 여지와 실제 운영 관행 사이의 차이로 인해 여전히 우려를 표명하고 있다.
3) 업계 및 인재 유출 우려
AI 연구자들과 엔지니어들은 군사적·국방적 목적을 위한 기술 제공 확대가 오픈AI의 윤리적 기준과 기업 문화에 충돌을 일으킬 수 있다고 주장한다. 이는 장기적으로 인재 유출, 연구 방향의 전환, 학계 및 산업계와의 협력 약화로 이어질 수 있다는 경고로 연결된다.
용어 설명
이 기사에서 사용된 주요 용어들을 쉽게 이해할 수 있도록 설명한다. “공급망 위험(supply-chain risk)”은 제품이나 서비스의 제공 체인에서 특정 공급자나 중간단계가 보안·안정성 또는 규제 준수상 위험을 초래할 가능성을 의미한다. “국내 감시(domestic surveillance)”는 자국 내 개인이나 집단을 대상으로 하는 감시 활동을 말하며, 프라이버시와 시민 자유에 직결되는 민감한 사안이다. “classified operations(기밀 작전)”은 국가 안보와 관련된 기밀 유지가 요구되는 작전이나 임무를 의미한다.
전문적 분석 및 향후 파급 효과
이번 사건은 기술기업과 정부 간 협력관계에서 발생할 수 있는 투명성·신뢰·윤리적 책임 문제를 다시금 부각시켰다. 다음은 가능한 영향과 분석이다.
1. 기업 평판과 투자자 신뢰
오픈AI는 기술 리더십과 윤리 규범을 강조해온 기업인 만큼, 국방부와의 협력 확대는 일부 투자자와 파트너에게 우려를 야기할 수 있다. 단기적으로는 평판 리스크가 커지며, 이는 신규 파트너십 체결 시 더 엄격한 실사(due diligence)와 조건 설정으로 이어질 가능성이 있다. 반면, 국방 분야와의 협력은 장기적으로 안정적 계약 기반을 제공할 수 있어 매출 다변화라는 긍정적 측면도 존재한다.
2. 인재 확보·유지
AI 연구자들과 엔지니어들의 이탈 가능성은 기술 개발 속도와 혁신 역량에 직접적인 영향을 미칠 수 있다. 특히 윤리적 고려를 중요시하는 연구자들이 내부 정책이나 프로젝트 방향에 불만을 갖는다면 인력 손실이 발생할 수 있고, 이는 중장기적으로 제품 개발 로드맵과 연구 우선순위에 변화를 초래할 수 있다.
3. 규제·정책적 대응
이번 사안은 각국 규제기관과 의회에서 AI와 국방 분야의 협력에 대한 감독을 강화해야 한다는 주장에 힘을 실을 수 있다. 규제 강화는 기술 적용의 범위와 책임성, 투명성 요구를 높일 것이며, 기업들은 이에 대비해 내부 거버넌스와 법률 준수 체계를 재정비할 필요가 있다.
4. 경쟁 구도와 시장 전략
오픈AI의 이번 결정은 경쟁사인 앤트로픽 등 다른 AI 기업들에 대한 평가와 포지셔닝에도 영향을 미친다. 일부 정부 기관은 공급망 안전성 등을 이유로 특정 업체를 선호하거나 배제할 수 있으며, 이는 시장 구조의 재편을 촉발할 가능성이 있다. 기업들은 국방·민간 적용 분야를 구분한 명확한 제품·서비스 라인업과 윤리적 가이드라인을 제시해야 할 것이다.
결론 및 시사점
샘 올트먼의 이번 입장 표명은 오픈AI가 국방부와의 협력에 대해 후회는 없지만 공개 방식에 문제를 인정했다는 점을 분명히 했다. 그러나 내부 직원들과 업계의 반발은 단순한 커뮤니케이션 오류를 넘어 기업의 윤리적 책임, 투명성, 외부 이해관계자와의 조율이라는 보다 근본적인 질문을 제기한다. 향후 오픈AI가 취할 조치는 단기적 평판 회복과 함께 장기적 기업 전략·거버넌스 재정비의 방향을 가늠하는 중요한 시금석이 될 것이다.
이 기사는 인공지능의 지원을 받아 생성되었으며 편집자의 검토를 거쳤다.








