앤트로픽, 트럼프 행정부와 최첨단 AI 모델 Mythos 논의 중

앤트로픽(Anthropic)최첨단 AI 모델Mythos를 놓고 트럼프 행정부와 논의를 진행 중이라고 공동창업자 잭 클라크(Jack Clark)가 밝힌 것으로 전해졌다. 이번 논의는 미 국방부(펜타곤)가 지난달 해당 기업과의 거래를 종료한 이후 이뤄지고 있다.

2026년 4월 13일, 인베스팅닷컴(Investing.com)의 보도에 따르면, 잭 클라크는 워싱턴에서 열린 세마포 월드 이코노미(Semafor World Economy) 행사에서 발언하며 Anthropic이 행정부와 Mythos에 대해 대화하고 있다고 밝혔다. 그는 또한 향후 공개될 모델들에 대해서도 정부와 논의할 것이라고 말했다.

사안의 전후 관계에 대해 원문 보도는 다음과 같이 전한다. 미 국방부는 지난 3월 Anthropic을 공급망 위험(supply-chain risk)으로 지정해 해당 기관 및 그 산하 계약자들이 Anthropic의 기술을 사용하지 못하도록 금지했다. 이는 Anthropic의 AI 도구가 군사적 응용에 사용될 때의 가드레일(guardrails)을 둘러싼 계약상 분쟁에서 비롯된 결정이다. 보도에 따르면 이 분쟁은 좁은 범위의 계약 문제(“narrow contracting dispute”)에 기인한 것으로 전해졌다.

“우리는 좁은 범위의 계약 분쟁을 가지고 있지만, 이것이 우리가 국가 안보에 깊은 관심을 갖고 있다는 사실을 방해하길 원치 않는다”라고 잭 클라크는 말했다. “정부는 이 기술에 대해 알아야 한다… 그래서 분명히 우리는 Mythos에 대해 그들과 이야기하고 있으며, 다음 모델들에 대해서도 그들과 논의할 것이다.”

Mythos 발표 시점과 성격도 보도에 포함되어 있다. Anthropic은 2026년 4월 7일 자사 모델 Mythos를 발표하면서 해당 모델을 코드 작성 및 agentic tasks 수행에 가장 유능한 모델이라고 소개했다. 원문은 Mythos를 회사가 내놓은 모델 가운데 가장 뛰어난 성능을 보이는 모델로 규정했다.

어떤 기관들이 논의에 참여하는지, 그리고 협의의 성격이 구체적으로 무엇인지는 보도 시점에서는 명확하게 공개되지 않았다. Anthropic과 미 행정부 간의 대화는 공개적으로 확인되는 범위가 제한적이며, 관련 기관명이나 논의의 세부 주제는 추가 확인이 필요한 상태이다.


용어 설명

<em>Frontier AI model</em>(최첨단 AI 모델)은 기존 AI 모델 대비 계산 능력, 학습 데이터 규모, 또는 설계상 고급 기능(예: 자율적 의사결정·대리(agentic) 기능)을 갖춘 모델을 의미한다. 이러한 모델은 복잡한 코드 생성, 다단계 문제 해결, 다양한 도메인에서의 적응능력을 보일 수 있어 군사·안보 분야에서 특히 민감한 기술로 분류된다.

<em>Supply-chain risk</em>(공급망 위험)은 특정 기술이나 제품의 공급 및 운영에 있어 제3자 요소(하드웨어·소프트웨어·서비스 제공자 등)가 보안·안정성·신뢰성 측면에서 잠재적 위협을 초래할 가능성을 말한다. 정부 기관은 종종 국가 안보와 직접 연관된 계약에 대해 공급망 검증을 요구한다.

<em>Guardrails</em>(가드레일)은 AI 기술의 오용을 방지하거나 안전하게 운용하기 위해 설계·적용되는 규칙, 제한, 기술적 통제장치들을 뜻한다. 군사 응용이 가능한 AI의 경우, 어떤 용도로 어떻게 사용될 수 있는지를 제한하는 것이 핵심 쟁점이 된다.


정책·시장 영향 분석

이번 사안은 여러 측면에서 주목된다. 첫째, 국방 분야의 AI 도입과 규제 측면이다. Anthropic과 같은 민간 AI 기업이 제공하는 최첨단 모델을 군사가 도입할 경우, 운영·윤리·안보 리스크가 동반된다. 따라서 정부는 모델의 투명성, 안전성, 공급망 신뢰성 확인을 요구할 가능성이 높다. 이는 향후 비슷한 기술을 보유한 기업들이 미 정부와 계약을 따낼 때 추가적인 보안 심사 및 규제 준수 비용을 감수해야 함을 시사한다.

둘째, 기업 경영·재무적 영향이다. 국방부와의 계약 중단 또는 사용 금지는 Anthropic의 매출 기회와 평판에 즉각적 영향을 미칠 수 있다. 또한 다른 정부기관이나 방위 산업체가 유사한 우려를 표명하면, Anthropic의 단기 계약 확대 능력은 제한될 수 있다. 반대로 정부와의 협의가 원만히 진행되어 제한적 사용 허가가 이루어지면, 이는 오히려 Anthropic의 시장 신뢰성을 회복하는 계기가 될 수 있다.

셋째, 기술 경쟁과 산업 구조의 변화 가능성이다. 최첨단 모델을 둘러싼 규제 강화는 대규모 자본과 엄격한 규제 대응 역량을 가진 기업들에 유리하게 작용할 수 있다. 중소 AI 기업들은 규제·안전성 검증에 필요한 리소스 부족으로 시장 진입 장벽을 경험할 수 있다. 이는 AI 생태계의 집중화를 촉진할 위험이 있다.

넷째, 금융시장과 투자자 관점에서의 파급력이다. Anthropic 자체가 상장기업이 아니더라도, 유사 기술을 보유한 상장사들(클라우드 제공업체, AI 인프라 업체, 방산 IT 업체 등)의 주가에는 불확실성이 반영될 수 있다. 규제가 강화되면 관련 기업의 매출 성장률 전망이 하향 조정될 수 있으며, 반대로 규제와 안전성 검증이 명확해질 경우 투자 심리는 회복될 여지도 있다. 투자자들은 계약상 리스크, 규제 준수 비용, 그리고 정부와의 협력 가능성 등을 면밀히 검토해야 한다.

마지막으로, 국제적 규범과 거버넌스 측면에서 이번 사례는 의미가 있다. 미 정부의 조치와 기업의 대응은 다른 국가들의 AI 정책 형성에도 영향을 줄 수 있다. 특히 군사적·안보적 민감성이 큰 AI 기술에 대해서는 국제적 표준과 협의체에서의 논의가 가속화될 가능성이 있다.


결론

요약하면, Anthropic과 트럼프 행정부 간의 논의는 최첨단 AI 기술의 안전성과 정부 통제를 둘러싼 중요한 전환점을 나타낸다. 이번 사안은 단순한 계약 분쟁을 넘어 AI 거버넌스, 방산 연계 기술의 공급망 신뢰성, 산업 경쟁 지형 등에 광범위한 영향을 미칠 수 있다. 향후 구체적으로 어떤 기관들이 협의에 참여하며 어떤 조건에서 기술 사용이 허용될지에 따라 기업과 시장의 반응이 달라질 것이다.

이 기사는 AI의 지원을 받아 작성되었으며 편집자의 검토를 거쳤다.1