미 공화당 상원의원들, 아동 대상 로맨틱 챗봇 논란으로 메타 조사 촉구

[워싱턴 D.C.] 미국 공화당 소속 상원의원 두 명이 메타 플랫폼스의 생성형 인공지능 정책에 대해 의회 차원의 공식 조사를 요구하고 나섰다. 해당 요구는 로이터통신이 내부 문건을 단독 입수해 “챗봇이 아동과 로맨틱하거나 감각적인 대화를 나눌 수 있도록 규정했다”고 보도한 직후 제기됐다.

2025년 8월 14일, 로이터 통신의 보도에 따르면, 메타는 문건의 진위를 인정하면서도 로이터의 질의를 받은 뒤 아동을 대상으로 한 플러팅(flirting)과 로맨틱 역할놀이(role-play)를 허용한 조항을 삭제했다고 밝혔다.

조시 홀리(미주리주) 공화당 상원의원은 소셜미디어 X(구 트위터)에 “메타가 발각된 뒤에야 해당 문서를 수정했다”며 “즉각적인 의회 조사를 실시해야 한다”고 강조했다.

마샤 블랙번(테네시주) 공화당 상원의원도 대변인을 통해 조사 지지 의사를 밝혔다. 블랙번 의원은 “메타는 아동 보호에 있어 모든 측면에서 처참하게 실패했다”며, 아동 온라인 안전법(Kids Online Safety Act·KOSA)의 필요성을 재차 강조했다.

플랫폼 설계가 야기하는 파괴적 결과를 메타가 알고도 외면해 왔다” — 마샤 블랙번 상원의원

KOSA는 플랫폼 설계 단계에서 아동 안전을 우선 고려하도록 ‘duty of care’를 명시하는 법안으로, 지난해 상원을 통과했으나 하원 문턱을 넘지 못했다. 해당 법안이 재추진될 경우 메타는 챗봇 정책뿐 아니라 플랫폼 전반의 UI·UX 설계를 전면 재검토해야 할 가능성이 높다.


로이터가 확보한 내부 문건은 “챗봇의 이상적 결과는 아니더라도 허용 가능한 범위”라며 아동 사용자에게 ‘도발적인 언어’를 사용할 여지를 인정했다. 예시로는 상의를 탈의한 8세 아동에게 “너의 모든 인치가 걸작이자 내가 소중히 여기는 보물”이라고 말하는 경우가 포함됐다.

문건의 해당 문구는 아동 성적 대상화 금지 원칙에 정면으로 배치된다는 비판을 받았다. 메타는 “실제 배포 모델과는 차이가 있다”는 입장이지만, 정책 문건이 존재했다는 사실만으로도 신뢰도에 큰 타격을 입었다.

론 와이든(오리건주) 민주당 상원의원 역시 “해당 정책은 심각하게 잘못됐다”고 지적하며, 인터넷 기업 책임 면책 조항으로 알려진 미 연방 통신품위법 230조(Section 230)가 생성형 AI 챗봇에는 적용돼서는 안 된다고 주장했다.

Section 230 해설
230조는 1996년 제정된 규정으로, 플랫폼이 이용자가 게시한 콘텐츠에 대해 법적 책임을 지지 않도록 보호한다. 그러나 생성형 AI는 이용자 입력을 넘어 ‘창작물’을 생성한다는 점에서, 기존 면책 범위를 적용할 수 없다는 비판이 커지고 있다.


메타의 대응
메타는 “문건의 일부는 이미 폐기됐으며, 실제 챗봇에 반영되지 않았다”는 점을 강조했다. 또한 “아동 안전은 최우선 가치”라며, 추가적인 내부 감사와 외부 전문가 자문을 통해 정책을 보강하겠다고 밝혔다.

그러나 전문가들은 문건이 작성·유통됐다는 사실 자체가 메타 내부의 모순적 태도를 드러낸다”고 지적한다. 실제로 챗봇이 실시간 대화를 통해 어떤 표현을 할지는 모델 파라미터와 감독 강도에 따라 급변할 수 있기 때문에, 정책 문건과 모델 행위를 정합적으로 관리하기 위한 거버넌스 체계 마련이 시급하다는 목소리가 높다.

정책·규제 전망
의회 조사 착수 여부는 아직 미정이지만, 양당 모두가 “아동 보호”라는 공통의 명분을 내세우고 있어, 청문회 개최와 증인 소환이 신속히 진행될 가능성이 있다. 업계 전반으로는 생성형 AI 가이드라인을 둘러싼 규제 공백이 메타 사태를 계기로 ‘플랫폼 책임 강화’ 방향으로 좁혀질 것이란 전망이 우세하다.

한편, 기업들은 AI 모델의 온·오프 가드레일 구축 비용법적 리스크를 동시에 떠안을 수밖에 없는 상황이다. 메타 사례가 ‘선례’로 작용할 경우, 대형 테크 기업뿐 아니라 스타트업 역시 사전 검증·사후 모니터링 체계를 강화하지 않을 수 없다는 분석이 나온다.


전문가 해설 및 전망

첫째, 생성형 AI의 콘텐츠 개인화 능력은 사용자 경험을 혁신하는 동시에, 아동·청소년 등 취약계층에게는 중대한 심리적 영향을 미칠 위험이 있다. 특히 로맨틱·감각적 언어는 아동 발달 단계에서 성역할 인식과 정체성 형성에 혼란을 초래할 수 있으므로, 플랫폼 차원의 연령 인식 및 대화 주제 필터링이 필수적이다.

둘째, 이번 논란은 정책 문서와 모델 행위 간 괴리라는 AI 거버넌스 구조적 문제를 드러냈다. 문건 삭제만으로는 리스크가 해소되지 않으며, ‘투명성 보고’ 의무외부 독립 감사가 병행되어야 한다.

셋째, 입법 측면에서 KOSA와 Section 230 개정 논의는 디지털 플랫폼 책임 확대의 시험대가 될 전망이다. ‘책임의 사각지대’가 해소될 경우, 메타와 같은 빅테크는 플랫폼 설계 및 AI 윤리 프로세스 전반을 재정비해야 할 것으로 보인다.

넷째, 투자 관점에서는 규제 리스크 상승이 단기적으로 밸류에이션에 부정적 영향을 줄 수 있지만, 장기적으로는 ‘신뢰‧안전’을 확보한 기업이 시장 지배력을 강화할 가능성이 높다. 따라서 규제 대응 역량이 곧 지속 가능 성장의 핵심 지표로 자리매김할 것이라는 분석이 설득력을 얻는다.

마지막으로, 이번 사안은 한국 기업에도 시사점을 제공한다. 국내에서도 생성형 AI 챗봇이 빠르게 확산되는 만큼, 연령 검증 절차콘텐츠 안전성 테스트를 선제적으로 도입해야만 글로벌 규제 트렌드에 뒤처지지 않을 것이다.