미 행정부가 자국 과학자들에게 미공개 AI 모델 접근 권한을 확대했다고 2026년 5월 5일 로이터 통신이 보도했다. 이번 발표는 구글의 DeepMind, xAI, 마이크로소프트의 AI 모델을 포함하도록 기존 프로그램의 범위를 넓힌 것이다. 이 프로그램은 미국 정부 과학자들로 구성된 팀에게 미공개(비공개) 인공지능 모델들을 제공해 위험성을 평가하도록 하는 것을 골자로 한다.
2026년 5월 5일, 로이터 통신의 Courtney Rozen과 Jody Godoy 보도에 따르면, 트럼프 행정부는 자국 과학자들이 공개되지 않은 AI 모델을 평가하도록 하는 프로그램의 대상 기업을 확대했다고 밝혔다. 이에 앞서 OpenAI와 Anthropic은 자발적으로 미국 인공지능 표준·혁신 센터(CAISI: U.S. Center for AI Standards and Innovation)와 협력해 미공개 모델의 취약점을 점검해 왔다.
미국 정부 과학자들이 주로 주목하는 위험은 ‘증명 가능한 위험(demonstrable risks)’이다. CAISI 웹사이트에 따르면 이들은 고도화된 AI 모델이 미국 인프라에 대한 사이버 공격을 개시하는 데 악용될 위험, 외국 적대 세력이 AI를 이용해 화학·생물학 무기 개발에 접근하거나 미국의 AI 모델 학습에 사용되는 데이터를 훼손(corrupt)할 가능성 등을 제한하는 데 중점을 두고 있다.
기업이 제공하는 자료와 범위에 관해서는 회사별로 차이가 있다. OpenAI는 크리스 레한(Chris Lehane) 글로벌 담당 책임자가 5월 초 LinkedIn 게시물에서 GPT-5.5-Cyber를 CAISI와 함께 테스트하고 있다고 밝혔다. GPT-5.5-Cyber는 방어적 사이버보안 작업을 위해 설계된 최신 모델의 변형이다. 마이크로소프트는 성명에서 과학자들과 공유 데이터셋과 워크플로우를 구축해 고도화된 AI 모델을 평가하겠다고 밝혔지만, 어떤 모델을 제공할지는 명시하지 않았다.
Anthropic은 2023~2025년 동안 CAISI에 공개 모델과 미공개 모델 모두에 대한 접근 권한을 부여해 연구자들이 취약점을 점검하는 이른바 레드팀(red-teaming) 과정을 수행하도록 했다고 지난 9월 밝힌 바 있다. 또한 Anthropic은 알려진 취약점과 안전 메커니즘에 대한 상세 문서를 제공했다. 구글 딥마인드(DeepMind)는 자사 “독점 모델(proprietary models)”과 데이터에 대한 접근을 제공할 것이라고 대변인이 전했다. 반면 xAI는 로이터의 질의에 즉각 응답하지 않았다.
기술적·절차적 용어 설명
CAISI는 미국 정부 과학자들이 모여 인공지능 모델의 안전성과 보안성을 평가하는 조직으로, 미공개 모델을 포함한 다양한 AI 시스템의 취약점 점검을 목적으로 한다. 레드팀(red-teaming)은 모의 공격자 관점에서 시스템을 공격·분석해 보안의 허점을 찾아내는 테스트 방식을 뜻한다. 참고 미공개 모델(unreleased models)은 상용 배포 이전 또는 내부적 목적을 위해 공개되지 않은 AI 모델을 의미하며, 보안·윤리적 위험이 상대적으로 큰 편이다.
미 정부가 지금까지 발견한 주요 취약점과 결과
Anthropic이 CAISI와 수행한 협력은 사람이 검토했다는 주장(claiming human review)이나 문자 대체(substituting characters) 같은 기법을 통해 안전 장치를 우회할 수 있다는 점을 드러냈고, Anthropic은 해당 취약점을 패치했다고 밝혔다. OpenAI는 9월에 CAISI와 함께 ChatGPT Agent의 취약점을 점검했으며, 이 취약점은 고도로 숙련된 공격자가 OpenAI의 사이버보안 조치를 우회할 수 있게 할 가능성이 있었다고 설명했다.
“그 익스플로잇은 공격자가 해당 세션에서 에이전트가 접근할 수 있는 컴퓨터 시스템을 원격으로 제어하고, 공격자가 로그인한 다른 웹사이트들에 대해서 사용자를 성공적으로 가장(impersonate)할 수 있도록 했을 것”
이들 기업은 메타(Meta), 아마존(Amazon), Inflection AI 등과 함께 2023년에 생물안보와 사이버보안 위험을 위해 독립 전문가들이 모델을 점검하도록 허용하기로 합의한 바 있다.
한편, 미 정부 과학자들은 전임 조 바이든 행정부 시절 다른 명칭으로 조직되어 자발적 가이드라인을 발표한 바 있으며, 이 가이드라인은 AI 모델이 사적 건강정보를 누출하거나 오류가 많은 답변을 생성하는 위험을 막기 위한 것이다. 현재 과학자들은 통신 및 긴급 서비스와 같은 중요 인프라 공급자(critical infrastructure providers)가 자사 AI 시스템을 테스트할 수 있도록 하는 지침을 개발 중이라고 CAISI 웹사이트는 전했다.
전문적 통찰: 시장·산업적 영향 분석
이번 조치는 단기적으로는 대형 AI 플랫폼 기업들에 대한 규제 리스크를 부각시키며, 투자자와 고객사의 불확실성을 높일 가능성이 있다. 기업들이 미공개 모델을 외부 전문가에게 제공하고 취약점 점검을 받는 과정은 개발 일정 지연과 추가 비용을 초래할 수 있으며, AI 제품의 상용화 시점과 기능 공개 시점에 영향을 줄 수 있다. 반대로 이런 점검은 장기적으로 기술 신뢰성을 제고하고 사이버 안전성을 개선해, 보안 솔루션·감사·컨설팅 시장의 수요 증가로 이어질 가능성이 크다.
금융시장 측면에서는 해당 기업들의 주가가 단기 변동성을 보일 수 있다. 규제·검사 확대는 향후 분기 실적 추정치에 하방 압력을 줄 수 있지만, 결과적으로 결함이 보완돼 제품 신뢰도가 높아지면 소비자 수용과 기업용 도입이 가속화되어 중기적으론 긍정적 영향을 줄 수 있다. 특히 사이버보안·데이터 무결성 관련 업체들은 즉각적인 기회 요인이 될 수 있다. 다만 이러한 영향은 기술별·기업별로 차별화될 것이며, 구체적 가격 영향은 모델 제공 범위, 점검결과의 심각성, 기업의 보완 능력 등에 따라 달라진다.
용어·프로세스 요약
CAISI: 미국 인공지능 표준·혁신 센터. 미공개 모델의 안전성·보안성 검토를 주도하는 전문가 그룹이다.
레드팀: 모의 공격자 입장에서 취약점을 찾아내는 전술적 테스트.
미공개 모델: 상용 배포 전 내부 용도로 유지되는 모델로 외부 검증의 필요성이 높다.
결론
2026년 5월 5일의 이번 프로그램 확대 발표는 미국 정부가 AI의 보안·생물안보 위험을 보다 적극적으로 관리하려는 의지를 반영한다. 기업의 자발 협력과 정부 주도의 검증이 병행되면서 단기적인 불확실성은 존재하지만, 체계적인 취약점 점검과 지침 마련은 장기적으로 AI 생태계의 안전성과 신뢰도를 높이는 계기가 될 수 있다. 향후 중요 포인트는 각 기업이 제공하는 모델 범위와 CAISI가 제시할 구체적 테스트·지침의 내용, 그리고 점검 결과에 따른 보안 패치의 신속성 여부다.
