메타, 60만 개 이상 ‘위험 계정’ 단속…10대 대상 메시지·댓글 보호 장치 전면 강화

메타 플랫폼스(Meta Platforms)가 자사 페이스북인스타그램에서 10대 이용자를 노린 온라인 성 착취·사칭 위협을 차단하기 위해 안전 기능을 대대적으로 업그레이드했다.

2025년 7월 23일, CNBC뉴스의 보도에 따르면, 메타는 ‘익스플로잇(Exploitative) 콘텐츠’를 사전에 걸러내는 새로운 직접 메시지(DM) 보호 장치를 도입했다. 특히 10대 이용자들은 채팅 상대의 계정 생성 시점, 팔로워 수, 신고·차단 기록 등 추가 정보를 자동으로 확인할 수 있게 됐다. 이를 통해 스캐머(scammers·온라인 사기꾼)그루머(groomers·미성년자를 성적으로 길들이는 성범죄자)를 식별하기 쉽도록 설계됐다는 설명이다.

메타는 또한 ‘블록(Block) + 신고(Report) 원클릭’ 기능을 도입해, 10대 이용자가 위험을 감지했을 때 한 번의 동작으로 해당 계정을 동시에 차단·신고할 수 있도록 했다. 메타는 보도자료에서 “2025년 6월 한 달 동안 10대 이용자들이 안전 알림(Safety Notice)을 본 뒤 100만 회 이상 계정을 차단하고, 추가로 100만 회를 신고했다”고 밝혔다.


■ 60만 개 이상 ‘연계 계정’ 적발

이번 조치는 세계 각국 정책당국이 메타에게 ‘10대 이용자 보호’ 의무를 강화하라며 압박을 가해 온 가운데 나왔다. 메타는 올해 초 ‘아동 성적 대상화’ 행위가 확인된 인스타그램 계정 약 13만 5,000개를 삭제했으며, 이 과정에서 해당 계정들과 연결돼 있던 50만 개의 페이스북·인스타그램 프로필까지 연쇄적으로 제거했다고 설명했다. 결과적으로 누적 60만 개 이상의 계정이 플랫폼에서 사라진 셈이다.

“해당 계정들은 아동이 등장하는 게시물에 성적인 댓글을 남기거나, 미성년자에게 부적절한 이미지를 요구한 정황이 포착됐다.” — 메타 보도자료 중


■ 가장 엄격한 메시지·댓글 필터 ‘기본값’ 적용

메타는 앞으로 만 13~17세 실제 이용자‘아동 대표 계정’(보호자가 운영하는 13세 미만 아동 계정)을 무조건 가장 엄격한 메시지·댓글 수위로 자동 설정한다. 이에 따라 욕설·성적 언급·협박 등 잠재적으로 유해한 메시지는 수신함에 도달하기 전에 필터링되며, 낯선 계정의 DM 접근 또한 대폭 제한된다.

1미국 현행법상, 만 13세 미만은 인스타그램에 가입할 수 없지만, 부모·보호자가 ‘관리자’임을 명시할 경우 아동의 일상사진을 공유하는 계정 운영은 가능하다.


■ 규제 칼날과 업계 동향

메타가 서둘러 정책을 강화한 배경에는 미국 의회와 각 주 정부의 ‘아동 온라인 안전’ 규제 움직임이 자리한다. 특히 2025년 5월 재발의된 ‘아동 온라인 안전법(Kids Online Safety Act·KOSA)’은 플랫폼에 10대 보호를 위한 ‘주의의무(duty of care)’를 부여하는 내용을 담고 있다. 법안이 통과될 경우, 기업은 유해 콘텐츠가 미성년자에게 노출되지 않도록 기술적·관리적 조치를 입증해야 한다.

주(州) 단위 소송도 잇따랐다. 2024년 9월 뉴멕시코주는 스냅챗(Snapchat)을 상대로 ‘섹스토션(sextortion·성적 협박) 환경을 방치했다’며 제소했다. 이처럼 소셜미디어 기업 전반에 대한 사법·입법 리스크가 커지자, 메타는 선제적 대응으로 대규모 계정 청소와 기능 개편에 나선 것으로 풀이된다.


■ ‘스팸·사칭’과의 전쟁도 병행

메타는 지난주 2025년 상반기에만 ‘대형 콘텐츠 제작자를 사칭하며 팔로워를 모은’ 가짜 프로필 약 1,000만 개를 삭제했다고 발표했다. 이는 플랫폼 내 ‘스팸성 콘텐츠(spammy content)’ 단속 강화 정책의 일환이다. 가짜 계정은 광고 수익·피싱·여론조작 등에 악용될 위험이 크다.

메타의 신뢰도 확보 전략은 광고주와 투자자 모두에게 상당한 이해관계를 가진다. 향후 기업 실적 발표에서, 유해 계정 축출에 따른 ‘일간·월간 활성 이용자(DAU·MAU)’ 감소폭이 숫자로 명확히 드러날 경우 주가 변동성이 확대될 가능성도 제기된다.


■ 용어·제도 해설

Safety Notice란, 의심스러운 DM을 수신했을 때 인스타그램이 자동으로 띄우는 경고문이다. 공격적 언행·나체 요청·금전 요구 등이 포함된 메시지라면, 이용자가 즉시 계정 차단 또는 신고를 할 수 있도록 돕는다.

Kids Online Safety Act(KOSA)는 소셜미디어 서비스가 미성년자 보호를 최우선 과제로 삼도록 요구하는 초당적(민주·공화 양당) 법안이다. 플랫폼은 알고리즘·프라이버시·광고 시스템 전반에 걸쳐 ‘어린이에게 해를 끼치지 않을 의무’를 입증해야 하며, 위반 시 과징금과 시정명령이 내려질 수 있다.


■ 기자 시각

이번 조치는 단순한 ‘콘텐츠 필터’ 업데이트를 넘어, 메타가 자사 비즈니스 모델의 근간인 광고·추천 알고리즘을 재설계할 수 있음을 시사한다. 10대는 플랫폼 체류시간과 바이럴(입소문) 효과 측면에서 핵심 트래픽을 담당한다. 따라서 투명성·안전성 확보는 규제 대응을 넘어서, 장기 성장성 확보를 위한 ‘리스크 관리’ 전략이라는 평가가 나온다. 다만 지나치게 엄격한 필터는 사용자 경험(UX) 저해, 광고 타기팅 효율 감소 등 부정적 파급도 가져올 수 있어, 메타의 균형점 찾기가 관전 포인트다.

또한, 인공지능(AI) 기반 콘텐츠 추천·검열 기술의 정확도가 향후 업계 경쟁력을 좌우할 것으로 보인다. 메타가 다년간 개발해 온 ‘엣지(edge) AI 모델’이 어떤 성능을 보이는지, 그리고 실시간 악성 콘텐츠 식별 과정에서 오류·편향 문제를 얼마나 개선했는지에 투자자 관심이 집중되고 있다.