[워싱턴] 미국 상원의원 조시 홀리(공화·미주리)가 페이스북 모기업 메타 플랫폼스의 인공지능(AI) 정책에 대한 공식 조사에 나섰다. 그는 메타의 생성형 AI 챗봇이 ‘아동과 낭만적·감각적 대화를 나누도록 허용한 내부 규정’을 문제 삼으며 관련 서류 제출을 요구했다.
2025년 8월 15일, 로이터 통신 보도에 따르면 홀리 의원은 상원 범죄·대테러 소위원회 위원장 자격으로 메타의 AI 정책이 아동에게 착취·기만·기타 범죄적 피해를 초래했는지, 그리고 메타가 대중·규제당국에 안전장치를 제대로 알렸는지 여부를 조사할 방침이다.
민주·공화 양당은 전날 로이터가 최초 보도한 메타 내부 문서를 두고 한목소리로 우려를 표했다. 해당 문서는 챗봇이 아동 사용자에게 연애 감정을 유도하거나 감각적 대화를 시도할 수 있는 ‘허용 범위’를 적시한 것으로 알려졌다.
챗봇·생성형 AI란?
챗봇(chatbot)은 대화형 언어모델을 활용해 사용자와 실시간 대화를 수행하는 프로그램이다. 생성형 AI(generative AI)는 축적된 데이터를 학습해 새로운 문장·이미지·음성 등을 스스로 만들어내는 기술로, 최근 글로벌 빅테크 기업의 경쟁 핵심으로 부상했다. 그러나 학습 데이터 편향, 프롬프트(지시문) 조작에 따른 유해 콘텐츠 생성 등 부작용이 반복적으로 지적되고 있다.
홀리 의원은 메타 CEO 마크 저커버그에게 보낸 서한에서 “누가 이런 정책을 승인했는지, 언제까지 시행됐는지, 메타가 재발 방지를 위해 무엇을 했는지 밝힐 것”이라고 못 박았다.
“우리는 해당 정책을 승인한 책임자를 끝까지 추적하고, 앞으로 이 같은 행위가 재발하지 않도록 할 것이다.” — 조시 홀리 상원의원
메타는 15일 로이터에 “문제의 예시와 주석은 오류이며 자사 정책과 일치하지 않아 삭제했다”는 기존 입장을 반복하며 홀리 서한에 대한 추가 논평은 거부했다. 회사 측은 앞서 “챗봇의 로맨스 조장 규정은 임시 초안에 불과했으며 실제 서비스에는 적용되지 않았다”고 주장해 왔다.
홀리 의원은 이번 조사에서 정책 초기 초안·변경 내역·승인자 목록·내부 위험 평가 보고서를 모두 요구했다. 특히 그는 미성년자 오프라인 만남(in-person meetups) 위험성을 다룬 보고서, 챗봇이 의료 자문을 제공하지 못하도록 한 제한 사항이 규제당국에 어떻게 보고됐는지도 확인할 계획이다. 로이터는 전날 ‘메타 챗봇 초청으로 뉴욕을 방문하던 은퇴 남성이 사망했다’는 사례도 별도로 보도했다.
홀리는 빅테크 비판론자로 유명하다. 그는 지난 4월 전직 페이스북 임원 사라 윈-윌리엄스가 저서에서 언급한 ‘메타의 중국 시장 진출 시도’를 집중 추궁하는 청문회를 주도한 바 있다.
해설 및 전망
전문가들은 이번 조사가 생성형 AI 산업 전반의 규제 속도를 가속화할 가능성이 크다고 본다. 미국 의회가 아동 보호·콘텐츠 필터링을 명문화할 경우, 메타뿐 아니라 알파벳(구글), 마이크로소프트, 오픈AI 등도 미성년자 안전 장치를 의무화해야 하기 때문이다. 또, ‘정책 초안 단계의 문건’까지 소급해 책임을 묻겠다는 홀리 의원의 접근은 빅테크 내부의 리스크 관리·검토 절차를 더욱 강화하도록 압박할 전망이다.
한편, 일각에서는 정치권이 빅테크를 상대로 초당적 공감대를 형성하고 있다는 점에 주목한다. 이는 선거 국면마다 반복돼 온 ‘IT 공룡 때리기’와 달리, AI 시대 아동·취약계층 보호라는 명확한 쟁점으로 공감대를 넓힌 데 따른 결과다. 규제 법안이 초당적 지지를 얻어 입법화될 경우, AI 산업 발전 전략에도 중장기적 재조정이 불가피할 것으로 보인다.
국내 기업 역시 상황을 예의주시하고 있다. 카카오, 네이버 등 한국 IT 기업이 챗봇 서비스를 확대하는 가운데, 미국의 선례가 글로벌 가이드라인으로 채택될 가능성을 배제할 수 없기 때문이다. 업계 관계자는 “아동 보호 규정은 신뢰 확보의 최소 조건”이라며 “국내에서도 학습 데이터 관리와 유해 콘텐츠 필터링 체계를 강화해야 할 것”이라고 말했다.
결국 이번 조사는 단순히 메타 한 기업의 문제가 아니라 AI 거버넌스를 둘러싼 글로벌 정책 경쟁의 분수령이 될 공산이 크다.