오픈AI(OpenAI)의 로보틱스 및 소비자 하드웨어 책임자인 케이트린 칼리노스키(Caitlin Kalinowski)가 미 국방부(Department of Defense)와의 계약 체결을 문제 삼아 사임을 발표했다.
2026년 3월 7일, 로이터의 보도에 따르면, 칼리노스키는 소셜미디어 플랫폼 X(구 트위터)를 통해 오픈AI가 펜타곤(Pentagon)의 분류(classified) 클라우드 네트워크에 자사 AI 모델을 배치하는 결정에 대해 사전에 충분한 검토를 하지 않았다고 밝혔다. 그녀는 사임 발표에서 이 결정이 감시·무기화와 관련된 윤리적·거버넌스(관리) 문제을 충분히 논의하지 않은 채 이뤄졌다고 지적했다.
칼리노스키는 X에 올린 글에서 “AI는 국가 안보에서 중요한 역할을 할 수 있다”며 “그러나 사법적 감독 없이 미국 시민을 감시하는 것과 인간의 승인 없이 치명적 무기를 자율적으로 운용하는 것은 더 많은 심사숙고가 필요했다”고 말했다. 그녀는 오픈AI의 최고경영자(CEO) 샘 올트먼(Sam Altman)과 팀에 대해 “깊은 존경”을 표한다고 덧붙였지만, 회사가 펜타곤과의 거래를 “안전장치(guardrails)가 정의되기 전에 발표했다”고 비판했다.
오픈AI는 해당 계약 체결 하루 뒤인 2026년 3월 초에 자사의 기술 사용을 보호하기 위한 추가 안전 장치가 포함되어 있다고 발표했다. 회사는 로이터에 보낸 성명에서 자사 기술이 국내 감시(domestic surveillance) 또는 자율무기(autonomous weapons)에 사용되는 것을 금지하는 “레드 라인(red lines)”을 보유하고 있다고 재확인했다. 또한 회사는 “이 문제에 대해 사람들이 강한 견해를 갖고 있다는 것을 인지하고 있으며, 직원·정부·시민사회·세계 각지의 커뮤니티와 소통을 계속하겠다”고 밝혔다.
칼리노스키는 2024년에 오픈AI에 합류했으며, 이전에는 메타 플랫폼스(Meta Platforms)에서 증강현실(Augmented Reality) 하드웨어 개발을 이끈 경력을 가지고 있다. 로이터는 즉시 칼리노스키에게 추가적인 논평을 요청했으나 연락이 닿지 않았다고 전했다.
용어 설명
• 분류(classified) 클라우드 네트워크: 국가 안보와 관련된 민감한 정보가 저장·처리되는 클라우드 인프라를 의미한다. 해당 네트워크에 AI 모델을 배치한다는 것은 민감한 정보 처리에 AI를 활용할 가능성을 열어두는 것을 뜻한다.
• 자율무기(autonomous weapons): 인간의 직접적 승인 없이 표적을 탐지·결정·타격할 수 있는 군사용 시스템을 지칭한다. 국제사회에서 윤리적·법적 논란이 크다.
• 가드레일(guardrails)와 거버넌스(governance): 기술 사용의 한계·책임·검증 절차 등 안전성과 윤리성을 확보하기 위한 규정·시스템을 말한다. 칼리노스키는 이번 계약 발표가 이들 규정·시스템을 충분히 마련하기 전에 이뤄졌다고 우려를 표했다.
추가 맥락과 전문적 통찰
이번 사임은 AI 기업과 군(軍)·정부 기관 간 협력에서 발생하는 윤리적·법적 논쟁의 단면을 보여준다. AI 기업이 국가 안보와 협력하면서 얻을 수 있는 기술적 이점과 연구 자금 확보의 기회는 분명하다. 그러나 민간 기업의 기술이 국가 보안 목적으로 활용될 때 시민의 프라이버시, 법적 감독, 책임 소재에 대한 우려가 커진다. 특히 미국 내에서는 사법부와 의회가 개입해 감시 활동에 대한 법적 절차를 요구할 가능성이 있으며, 이는 향후 규제 환경 변화로 이어질 수 있다.
시장 및 산업에 대한 영향
단기적으로는 이번 사안이 오픈AI의 이미지와 직원·투자자 신뢰에 영향을 미칠 수 있다. 기술기업의 핵심 인력이 공개적으로 반발해 사임하는 사건은 내부 갈등과 의사결정 과정을 둘러싼 의구심을 낳는다. 이는 인재 유출 우려, 직원 사기 저하, 잠재적 규제 리스크에 대한 투자자 우려로 연결될 수 있다. 중장기적으로는 규제 강화 가능성이 높아지고, AI 기술을 군사적·민감 영역에 적용하려는 기업들은 더 엄격한 컴플라이언스·거버넌스 체계와 투명성 제고를 요구받게 된다.
금융시장 관점에서 볼 때, 이번 발표는 AI 관련 기업의 주식과 AI 인프라 공급업체, 클라우드 서비스 제공업체에 대한 단기 변동성을 유발할 수 있다. 그러나 명확한 규제 기준과 거버넌스가 마련될 경우, 장기적으로는 신뢰 가능한 안전장치를 갖춘 기업들이 기술 수요에서 우위를 점할 가능성이 있다. 따라서 투자자들은 규제 동향, 기업의 윤리 정책, 내부 거버넌스 강화 여부를 주의 깊게 살펴야 한다.
향후 전망 및 권고
이번 사건은 기술 기업과 정부 간 협력에서 투명성과 사전 합의된 안전장치의 중요성을 재확인시킨다. 기업들은 기술 제공 전에 명확한 사용 제약과 외부 감사·감시 체계를 수립해야 하며, 정부는 시민권 보호와 국가 안보 사이에서 균형을 맞추기 위한 법적·제도적 기반을 강화해야 한다. 또한 업계 전반에서는 국제적 기준·규범 수립 논의가 가속화될 가능성이 높다.
참고: 본 보도는 2026년 3월 7일 로이터 보도에 기초하며, 칼리노스키의 공개 발언과 오픈AI의 공식 입장을 중심으로 정리했다.
