미국의 인공지능(AI) 연구자들이 구글 최고경영자(CEO) 선다 피차이에게 회사의 AI 시스템을 미국 국방부의 기밀 등급 업무에 활용하지 말 것을 촉구하는 서한을 보냈다. 해당 서한에는 580명 이상의 연구자들이 서명했으며, 서명자의 약 3분의 2는 실명 공개에 동의했고 약 3분의 1은 익명으로 참여했다고 조직자들이 전했다.
2026년 4월 27일, 인베스팅닷컴의 보도에 따르면, 이 서한은 월요일 피차이 CEO에게 전달되었다. 서한은 “우리는 구글 직원으로서 미 국방부와 구글 간에 진행 중인 협상에 깊은 우려를 표한다“고 밝히며, “AI를 연구·개발하는 사람으로서 이러한 시스템이 권력을 중앙집중화할 수 있고, 오류를 범할 수 있음을 알고 있다“고 지적했다.
“우리는 구글 직원으로서 미 국방부와의 진행 중인 협상에 대해 깊은 우려를 표한다. AI 시스템은 권력을 중앙집중화할 수 있고 실수를 저지를 수 있다.”
서한에 서명한 인원은 580명 이상으로 집계됐으며, 서명자들의 신원 공개 여부는 자발적이었다. 조직자들은 이 중 약 3분의 2가 이름 공개에 동의했다고 밝혔고 나머지 3분의 1은 익명을 요청했다고 전했다. 이 같은 내부 반발은 미국 국방부와 AI 기업 간의 관계를 둘러싼 긴장과 윤리적·안보적 논쟁을 반영한다.
이번 항의는 펜타곤(미국 국방부)과 AI 기업 앤트로픽(Anthropic PBC) 사이의 법적 분쟁을 뒤따른 것이다. 보도에 따르면 펜타곤은 앤트로픽과 그들이 개발한 클로드(Claude) AI 도구를 미국 방위 공급망에서 제외하려 하고 있으며, 대신 다른 대형 기술 기업의 AI 파트너를 찾고 있다. 이러한 움직임이 회사들 간의 경쟁 구도와 정부의 AI 조달 전략에 미치는 영향은 점차 확대되고 있다.
구글 내부에서는이미 과거에도 국방 관련 AI 업무에 대한 우려가 제기된 바 있다. 2018년 당시 구글 직원들이 AI 기반 군사적 응용의 위험성을 경고하며 회사의 방위사업 참여에 제동을 걸었고, 그 결과 구글은 일부 방위 관련 업무를 제한한 바 있다. 이번 서한은 그러한 전례를 다시 소환하는 동시에, AI의 군사적 전용에 대한 지속적인 내부 견제의지를 보여준다.
용어 설명
앤트로픽(Anthropic PBC)은 상용 AI를 개발하는 미국의 기업으로, 인간 안전성과 관련된 원칙을 강조하며 AI를 개발해 왔다. 클로드(Claude)는 앤트로픽이 개발한 대형 언어 모델(LLM)의 브랜드명으로, 자연어 처리와 생성형 AI 기능을 제공한다. 기밀 등급(classified workloads)은 군사·국가안보 분야에서 다루는 비공개·보안 등급의 데이터와 작업을 지칭하며, 외부 접근이 제한되고 엄격한 관리가 요구된다.
왜 이 사안이 중요한가? AI 시스템을 군사적으로 활용하면 전장 정보처리, 의사결정 보조, 자동화된 감시 및 표적 식별 등 다양한 응용이 가능해진다. 그러나 이들 시스템은 오류를 범할 수 있고, 편향(bias)과 오작동으로 인한 민간 피해 혹은 규범적·법적 문제를 야기할 수 있다. 또한 기밀 등급의 업무는 국가 안보와 직결되는 만큼, 민간 기업의 참여는 윤리적 논쟁과 규제·법적 책임 문제를 동반한다.
전문가 관점의 분석 및 전망
이번 서한과 내부 반발은 당장 구글의 계약 결정뿐 아니라, 기술주 전반의 사업 전략과 규제 환경에 영향을 미칠 가능성이 있다. 첫째, 구글이 미 국방부에 기밀 업무 제공을 수락할 경우 내부 연구진의 반발은 인력 유출과 연구 환경의 악화를 초래할 수 있으며, 이는 장기적으로 AI 연구 생산성에 마이너스 요인으로 작용할 수 있다. 둘째, 반대로 구글이 거부할 경우 미 국방부는 다른 AI 기업과의 협력을 확대할 것이며, 이는 앤트로픽, 마이크로소프트, 오픈AI 등 주요 플레이어들 간의 경쟁 구도를 변화시킬 수 있다.
금융시장은 이러한 기업과 정부의 상호작용에 민감하게 반응할 수 있다. 구글(알파벳)의 경우, 방위 관련 계약 수주는 매출의 직접적 대체재는 아니지만 장기적 사업 포트폴리오와 정부 사업 수주 능력에 영향을 미친다. 만약 구글의 명성이 내부 윤리 갈등으로 손상될 경우 투자자 신뢰가 흔들릴 수 있으며 단기적으로 주가 변동성이 확대될 수 있다. 반대로, 구글이 명확한 윤리 기준과 투명한 거버넌스를 제시할 경우 이는 기업 평판 개선으로 이어져 중장기적 가치를 보호할 수 있다.
또한 규제 측면에서 이번 사안은 미국과 유럽 등 주요 국가에서 AI의 군사적 활용을 규율하는 논의를 가속화할 소지가 있다. 정부의 조달 기준 강화, 민군 협력에 대한 법적·윤리적 가이드라인 제정 등은 관련 기업의 비즈니스 모델과 계약 전략에 직접적 영향을 미칠 것이다. 따라서 투자자와 정책결정자들은 AI의 군사적 응용과 관련한 기업의 정책, 내부 거버넌스, 그리고 규제 리스크를 면밀히 관찰해야 한다.
추가 정보
보도는 이번 기사가 AI의 지원을 받아 작성되었으며 편집자가 검토했다고 밝히고 있다. 원문에는 “This article was generated with the support of AI and reviewed by an editor. For more information see our T&C.”라는 문구가 포함되어 있다.
핵심 요약: 구글의 AI 연구자들이 피차이 CEO에게 미 국방부의 기밀 군사 AI 업무 수주를 거부할 것을 촉구하는 서한을 보냈으며, 서한에는 580명 이상이 서명했다. 이번 움직임은 펜타곤과 앤트로픽 간의 법적 분쟁 및 AI의 군사적 활용을 둘러싼 윤리·안보 논쟁과 맞물려 있다.
