미국 중앙은행인 연방준비제도(Fed)의 크리스토퍼 월러(Christopher Waller) 연방준비제도 이사는 2월 24일(현지시간) 연준이 인공지능(AI) 기술을 시스템 전체 차원에서 신중하게 도입하고 있다고 밝혔다. 월러 이사는 AI 도입을 경솔하게 접근할 수 없으며 중앙은행으로서 높은 기준을 스스로에게 적용한다고 강조했다.
2026년 2월 24일, 로이터통신의 보도에 따르면, 월러 이사는 보스턴 연방준비은행(Federal Reserve Bank of Boston)이 주최한 한 콘퍼런스에서 이 같은 발언을 했다. 그는 AI 활용과 관련해 명확한 관리 장치(guardrails), 강력한 정보 보안 통제, 엄격한 모델 검증, 의사결정에 대한 인간의 책임성, 그리고 기술 진화에 따른 지속적 평가이 필요하다고 구체적으로 밝혔다.
“We cannot approach AI casually,” “as a central bank, we hold ourselves to a high standard.”
월러 이사는 특히 혁신(innovation)과 리스크 관리(risk management)는 상호 보완적인 우선순위라고 명확히 하며, 기술 도입 과정에서 두 요소를 균형 있게 추진하겠다는 입장을 밝혔다. 그는 준비된 연설문에서 경제 및 통화정책 전망에 대해선 언급하지 않았다.
월러 이사는 연준이 매우 분권화된 조직임에도 불구하고 AI 기술 도입에서는 보다 통합된 접근을 택하고 있다고 말했다. “We’re moving as one system, with shared direction and alignment,”라고 말하며 시스템 전체의 공동 방향성 및 정렬을 강조했다. 또한 어떤 용도로 기술을 배치할지 결정할 때는 “문제 해결과 비즈니스 필요성에서 출발한 뒤, 사용 가능한 AI 기술군 중 적절한 역량을 적용한다(We start with the problem to be solved and the business need, then apply the right capability).”고 설명했다.
핵심 내용 요약
월러 이사의 발언은 연준 내부에서 AI를 단순히 도입하는 것이 아니라 체계적이고 규범화된 방식으로 채택하겠다는 의지를 드러낸다. 여기에는 다음과 같은 구체적인 요소가 포함된다: 사용 범위와 절차의 명확한 가이드라인, 정보 유출 및 사이버보안 위험을 최소화하기 위한 통제, 모델 성능·편향성·안정성 등에 대한 엄격한 검증(모델 밸리데이션), 최종 결정에 대한 인간의 책임성 확보, 그리고 기술 변화에 맞춘 지속적 검토 체계이다.
용어 설명
모델 검증(Model Validation)은 AI 모델이 의도한 목적에 맞게 정확하게 작동하는지를 평가하는 절차다. 여기에는 모델의 입력 데이터 품질 확인, 예측 정확도 평가, 편향(바이어스) 검사, 스트레스 테스트, 재현성 확인 등이 포함된다. 또한 가드레일(guardrails)은 기술 사용의 범위와 조건을 제한하는 규칙·절차·감독 장치를 의미하며, 중앙은행의 맥락에서는 정책 판단에 직접 영향을 미치는 자동화된 의사결정 시스템의 남용을 방지하는 역할을 한다.
연준의 통합적 접근 배경
연준은 지역별 연방준비은행과 워싱턴 본부가 참여하는 분권적 조직 구조를 갖고 있다. 이러한 구조적 특성 때문에 기술 도입도 개별 기관별로 달라질 수 있지만, 월러 이사의 발언은 특히 시스템 전체의 일관성을 확보하려는 노력이 진행 중임을 시사한다. 이는 데이터 표준화, 보안 규약 일원화, 모델 검증 기준統一(일원화) 등 실무적·관리적 조치의 조합을 필요로 한다.
시장 및 경제에 대한 영향 분석
연준이 AI 도입을 신중하게 추진하면 단기적으로는 내부 운영 효율성 제고와 정책 분석 역량 강화에 기여할 가능성이 크다. 예를 들면, 거시경제 예측 모델의 정확도 향상, 대규모 데이터(빅데이터)를 활용한 실시간 리스크 탐지 및 규제 감시 강화, 보고서 자동화로 인한 비용 절감 등이 기대된다. 반면에 사이버보안이나 데이터 편향 문제는 실물경제에 부정적 영향을 미칠 수 있으므로 이를 어떻게 관리하느냐가 중요하다.
금융시장 측면에서는 연준의 AI 활용이 예상보다 빠르게 금융감독·위험관리 역량을 높이면 시장의 구조적 리스크가 조기 발견·완화될 수 있다. 그러나 AI 모델의 오작동 또는 잘못된 학습으로 인한 판단 오류는 단기적으로 금융시장 변동성을 증폭시킬 수 있어, 기술 도입 시점과 범위, 검증 수준이 시장의 불확실성을 좌우할 것이다.
정책적 시사점
연준이 강조한 인간의 책임성은 자동화된 의사결정 도구를 도입하더라도 최종 정책 판단은 인간이 책임진다는 원칙을 재확인한다. 이는 정책 신뢰성과 투명성 유지에 중요하며, 외부 이해관계자(시장 참여자 및 정책 수혜자)에 대한 설명가능성(explainability)을 높이는 방향으로 이어질 가능성이 크다. 또한 지속적 평가 메커니즘은 AI 기술의 빠른 진화 속에서 규제 공백을 줄이는 역할을 할 것이다.
결론
월러 이사의 발언은 연준이 AI 기술을 도입하는 과정에서 안전성·투명성·책임성을 핵심 원칙으로 삼고 있음을 분명히 했다. 향후 구체적 적용 사례와 내부 규정, 검증 프레임워크가 공개되면 시장과 정책 결정자들은 보다 명확한 영향 평가를 할 수 있을 것이다. 현재로서는 연준의 접근이 보수적이지만 체계적이라는 점이 주요 메시지이며, 이는 금융 안정성과 정책 신뢰성을 유지하려는 의도로 해석된다.








