바클레이즈 CEO “Anthropic의 AI ‘Mythos’는 은행권에 심각한 위협…후속 모델들도 등장할 것”

워싱턴발 — 바클레이즈(Barclays) 최고경영자(CEO) C. S. 벤카타크리슈난(Venkatakrishnan)은 2026년 4월 17일, Anthropic가 개발한 최첨단 인공지능(AI) 모델인 Mythos전 세계 금융·은행 시스템에 심각한 위협이라고 경고했다. 벤카타크리슈난은 이 모델의 고급 코딩 능력이 사이버 보안 취약점을 식별하고 이를 악용하는 방법을 고안할 가능성을 높였다고 지적하면서, 현재의 규제·감독 체계와 기존 기술 인프라가 이에 즉각적으로 대응하기 어려운 상황이라고 말했다.

2026년 4월 17일, 로이터 통신의 보도에 따르면 벤카타크리슈난 CEO는 IMF(국제통화기금)의 봄철 회의(Spring Meetings) 부대 행사로 열린 G30(국제금융협의체) 자문그룹 회의에서 이 같은 우려를 표명했다. 그는 특히 “On Mythos, look, it’s a serious issue,”라고 말하며 이 문제의 심각성을 강조했다. 이어 “But here’s the thing: there will be a Mythos 2 and a Mythos 3, and they’ll come up with probably distressing frequency,”라며 후속 모델들이 빈번하게 등장할 것이라고 경고했다.

Mythos는 Anthropic이 제시한 ‘프런티어(Frontier)’급 AI 모델로 분류된다. 프런티어급 AI는 기존 AI보다 훨씬 광범위한 추론 능력과 고급 코딩 능력을 보이는 모델을 의미하며, 복잡한 소프트웨어 작성, 보안 취약점 분석, 자동화된 공격 시나리오 설계 등 고난도 작업을 수행할 수 있다. 이러한 능력은 보안 전문가들이 찾기 어려운 취약점도 자동으로 탐지·활용할 가능성을 제기한다.

규제·감독 당국의 즉각적인 대응과 선택적 검토도 기사에 포함된 핵심 내용이다. 벤카타크리슈난은 Mythos의 등장으로 인해 규제기관과 감독당국이 긴급히 움직였으며, 일부 기관은 해당 모델을 직접 검토해 실제 사이버보안 위험을 평가하고 있다고 전했다. 이는 금융권 전반에 걸쳐 모델 자체의 보안 평가모델을 활용한 위협 시나리오의 사전점검이라는 새로운 규제·감독 과제를 야기하고 있다.


용어 설명 및 배경

Anthropic은 인공지능 연구·개발 기업으로, 대형 언어모델(LLM) 및 범용 AI 기술을 개발한다. 프런티어 AI는 상업적·연구적 활용도는 높으나 동시에 통제와 관리가 어렵다는 특징을 지닌다. G30(Global 30)은 국제 금융·경제 분야의 전·현직 고위 인사들이 참여하는 자문 그룹으로, IMF의 주요 회의 등에서 정책적 권고를 제시하기도 한다. IMF의 봄철 회의는 매년 세계 경제·금융 현안을 논의하는 자리로, 각국 중앙은행·재무당국·국제기구 관계자들이 모인다.

레거시(legacy) 시스템의 취약성

벤카타크리슈난은 특히 대형 은행과 오래된 시스템을 운영하는 기관들이 이번 변화에 더 취약하다고 지적했다. 레거시 시스템은 과거에 구축된 소프트웨어·하드웨어 인프라로서 최신 보안 기준이나 아키텍처를 반영하지 못한 경우가 많다. 벤카타크리슈난은 “이런 기술 도약(technological leaps)은 무기 경쟁(arms race)을 가속화해 금융기관들로 하여금 혁신을 강요할 것이다”라고 분석했다. 그는 “우리는 그 기능을 이해해야 하고, 그것으로부터 어떻게 방어할지 이해해야 한다.”고 덧붙였다.


금융시장 및 실무적 영향 분석

전문가들과 업계 분석을 종합하면 Mythos와 같은 프런티어 AI의 출현은 다음과 같은 방식으로 금융시장과 은행권의 비용·리스크 구조에 영향을 미칠 가능성이 높다. 첫째, 사이버보안 비용의 상승이다. 은행들은 AI 기반 공격에 대응하기 위해 추가적인 보안 인프라 투자, 보안 전문 인력 확충, 외부 모델 검증 프로세스 도입 등을 서둘러야 한다. 이는 단기적으로 은행의 운영비용 및 자본지출 증가로 이어질 수 있다.

둘째, 규제·준수(compliance) 부담의 확대가 예상된다. 감독당국은 모델 리스크(model risk) 관리, 제3자 AI 사용에 대한 감독지침, 데이터·프라이버시 규제 강화 등 여러 방면에서 새로운 규제를 도입할 가능성이 크다. 규제 강화는 은행의 영업활동에 대한 제약을 늘리고, 규제준수 비용을 증가시킬 것이다.

셋째, 시장 신뢰 및 신용비용 측면의 영향이다. 만약 대형 은행이 AI를 악용한 공격으로 실제로 큰 손실을 입거나 고객 데이터가 유출되는 사태가 발생하면, 투자자·예금주 신뢰가 훼손되어 자본조달 비용 상승, 예금 이탈 등의 금융불안으로 확대될 수 있다. 반대로 은행들이 선제적으로 보안을 강화하고 AI 리스크 관리를 체계화하면 장기적으로는 시장의 안정성이 회복될 여지도 있다.

넷째, 구조적·경쟁적 변화이다. 신기술을 신속히 도입하고 현대적 아키텍처로 전환할 수 있는 디지털 네이티브 은행이나 핀테크 기업이 기존 대형 은행 대비 상대적 우위를 확보할 수 있다. 반면, 대형 은행은 광범위한 고객 기반과 규제적 신뢰도를 바탕으로 대규모 보안 투자를 통해 방어력을 키울 수 있어 양극화가 심화될 가능성이 있다.


대응 전략과 권고

업계 전문가들은 다음과 같은 대응 전략을 권고하고 있다. 첫째, 모델 거버넌스 강화다. 외부 AI 모델을 도입하는 경우에는 모델의 능력·한계·악용 가능성을 평가하는 표준화된 검토 절차를 마련해야 한다. 둘째, 레거시 시스템 현대화를 가속화해 취약점 축적을 차단해야 한다. 셋째, 공동 방어 체계를 마련할 필요가 있다. 은행·규제기관·사이버보안 업계가 정보와 위협 인텔리전스를 공유하는 플랫폼을 통해 빠르게 대응하는 것이 중요하다.

또한 규제 당국에는 사전적(pre-emptive) 감독을 통해 AI 기반 위협을 모니터링하고, 공개·비공개 검토를 병행할 것을 권고한다. 이러한 조치들은 단기적으로는 비용을 수반하지만 중장기적으로는 시스템적 리스크를 축소하고 금융안정을 제고할 수 있다.


결론

Anthropic의 Mythos는 고도의 코드 작성 능력과 취약점 탐지 역량으로 인해 금융권의 사이버보안 환경에 새로운 도전을 제기하고 있다. 2026년 4월 17일 로이터 보도에서 벤카타크리슈난 CEO가 밝힌 대로, 후속 모델들의 등장 가능성은 규제·감독 당국과 금융기관들에게 장기적이고 반복적인 대응 요구를 의미한다. 전문가들은 선제적 투자와 제도 정비, 산업 차원의 협력 강화를 통해 위험을 관리해야 한다고 권고한다. 이러한 변화는 은행의 비용 구조, 규제 환경, 경쟁 구도에 중대한 영향을 미칠 것으로 보인다.