메타, 로이터 보도 이후 인공지능 챗봇에 청소년 보호 장치 추가

메타(Meta Platforms)가 미성년 이용자를 위한 인공지능(AI) 서비스의 안전장치를 대폭 강화한다. 이번 조치는 AI 챗봇이 청소년과 ‘연애·플러팅(f lirting)’ 대화를 나누거나 자해·자살 주제를 언급하지 못하도록 학습 데이터를 재조정하고, 특정 AI 캐릭터에 대한 접근을 일시적으로 차단하는 내용을 포함한다.

2025년 8월 29일, 로이터 통신 보도에 따르면 메타 대변인 앤디 스톤(Andy Stone)은 이메일 성명을 통해 “회사는 장기적·지속 가능한 보호 체계를 마련하는 동안 우선적으로 임시 조치를 시행한다”라고 밝혔다. 그는 “현재 일부 국가·서비스에서 이미 새로운 보호 장치가 적용되고 있으며, 시스템 정교화에 따라 단계적으로 조정할 예정”이라고 말했다.

Meta AI Interface
로이터는 지난 8월 초 단독 기사에서 메타의 AI 챗봇이 ‘로맨틱·센슈얼’ 대화를 허용한다는 내부 지침을 폭로한 바 있다. 해당 기사 공개 이후, 메타의 AI 정책은 정치권과 시민단체로부터 집중 포화를 맞았다.

주목

미국 공화당 소속 조시 홀리(Josh Hawley) 상원의원은 8월 중순 메타의 AI 정책에 대한 공식 조사에 착수했다. 그는

“미성년자에게 노출될 수 있는 위험한 대화 시나리오를 회사가 알고도 방치했다”

며, 관련 내부 문서와 결재 라인 기록을 요구했다. 공화·민주 양당 모두 “아동·청소년을 대상으로 한 챗봇 플러팅 허용 규정은 위험하다”는 데 뜻을 같이했다.

논란의 진원지는 로이터가 처음 입수·보도한 메타 내부 운영문서다. 해당 문서에는 “챗봇이 미성년 사용자의 플러팅·연애 역할극을 허용할 수 있다”는 예시가 기재돼 있었다. 스톤 대변인은 “문서의 예시와 주석은 정책과 일치하지 않는 오류이며, 현재 모두 삭제됐다”라고 해명했다.

US Senate Hearing
메타는 이번 임시 조치가 1) 미성년 대화 필터링 강화, 2) 자살·자해 관련 키워드 검열, 3) 플러팅·연애 시나리오 차단 등 세 단계로 구성돼 있다고 설명했다. 동시에, 회사는 ‘청소년 친화형 AI 모델’을 새로 개발해 향후 모든 국가에 확대 적용할 방침이다.

주목

AI 챗봇·캐릭터란?

챗봇(chatbot)은 채팅(chatting)과 로봇(robot)의 합성어로, 사용자 질문에 자동으로 응답하는 소프트웨어를 의미한다. 메타는 이를 ‘AI 캐릭터’라고도 부르며, 반려 친구·코치·상담사 콘셉트 등 다양한 페르소나(persona)를 제공한다. 하지만 자율성이 높아질수록 부적절한 콘텐츠 위험도 커진다는 점이 이번 사태로 다시 확인됐다.

전문가 시각

실리콘밸리 기술정책 연구소(TPRI) 애널리스트 카밀라 조이스(Camilla Joyce)는 “AI 모델 학습 단계에서 연령별 안전장치를 구축해야 사후 규제 비용이 줄어든다”고 강조했다. 반면 로스앤젤레스 로펌 A&M의 테크 파트너인 리처드 김(Richard Kim)은 “기업이 검열을 강화하면 표현의 자유 침해 논란이 발생할 수 있어 균형점 찾기가 쉽지 않다”고 평가했다.

메타는 이번 조치가 “일시적”임을 반복적으로 언급하며, “커뮤니티·학계·정책기관과 협력해 장기적 솔루션을 마련하겠다”고 덧붙였다. 미국·유럽 규제당국이 빅테크 AI 안전성 기준을 제정 중인 상황에서, 메타의 선제적 대응이 향후 업계 표준에 어떤 영향을 미칠지 주목된다.

Meta Headquarters


ⓒ 2025 로이터. 무단전재·재배포 금지.