팩트박스 – 호주에서 유럽까지, 각국이 아동의 소셜미디어 접근을 제한하는 움직임이 확산되고 있다. 호주는 16세 미만 아동의 주요 소셜미디어 접근을 차단하는 법을 도입해 틱톡(TikTok), 알파벳(Alphabet)의 유튜브(YouTube), 메타(Meta)의 인스타그램(Instagram)·페이스북(Facebook) 등 플랫폼에서 16세 미만 사용자의 계정 생성 및 이용을 차단하도록 했다.
2026년 1월 20일, 로이터 통신(Reuters)의 보도에 따르면, 이 같은 규제 강화는 아동의 건강과 안전에 대한 우려가 커지면서 여러 국가에서 연령 기반 규제 도입을 검토하거나 이미 시행하는 방향으로 이어지고 있다. 각국 정부와 기술 기업이 어떤 조치를 취하고 있는지 정리하면 다음과 같다.

AUSTRALIA(호주)
호주는 2024년 11월에 통과된 법을 통해 대형 소셜미디어 플랫폼이 2025년 12월 10일부터 16세 미만 미성년자의 접근을 차단하도록 강제했다. 이는 주요 기술 플랫폼을 대상으로 한 세계에서 가장 강력한 규제 중 하나로 평가된다. 해당 법을 위반하는 기업에는 최대 A$49.5 million(미화 $33.3 million)까지의 과태료가 부과될 수 있다.
BRITAIN(영국)
영국은 호주 방식의 소셜미디어 금지 조치를 검토 중이라고 기어 스타머 총리(Prime Minister Keir Starmer)가 밝혔다. 정부는 정확한 연령 기준을 명시하지는 않았으나 「어떤 연령 미만의 아동을 대상으로 하는 금지」를 검토하고 있으며 현재 디지털 동의 연령(digital age of consent)이 너무 낮지는 않은지 검토하고 있다.
CHINA(중국)
중국의 사이버공간 규제 당국은 이른바 “마이너 모드(minor mode)” 프로그램을 마련해 기기 수준의 제한과 앱별 규칙으로 연령에 따라 화면 사용 시간을 제한하도록 하고 있다. 이는 플랫폼 단위가 아닌 기기·앱 단위의 통제 장치를 병행하는 방식이다.
DENMARK(덴마크)
덴마크는 11월에 15세 미만 아동의 소셜미디어 이용을 금지하는 방안을 발표했으며, 부모 동의가 있을 경우 13세 이상 어린이는 예외적으로 특정 플랫폼에 접근할 수 있도록 허용했다. 국회 다수 정당이 공식 표결에 앞서 이 계획을 지지한다고 밝혔다.
FRANCE(프랑스)
프랑스는 2023년에 15세 미만의 미성년자가 소셜플랫폼 계정을 만들려면 부모의 동의를 받도록 하는 법을 통과시켰다. 다만 현지 언론 보도에 따르면 기술적 문제로 인해 시행 및 집행에 어려움이 있어 완전한 실효성 확보에는 제약이 있다.
GERMANY(독일)
독일은 13세에서 16세 사이의 미성년자가 소셜미디어를 이용하려면 부모의 동의를 받아야 한다고 규정하고 있으나 아동보호단체들은 이러한 통제가 충분치 않다고 지적한다.
ITALY(이탈리아)
이탈리아에서는 14세 미만 아동이 소셜미디어 계정을 개설하려면 부모 동의가 필요하며, 14세 이상부터는 별도의 동의 없이 계정 가입이 가능하다.
MALAYSIA(말레이시아)
말레이시아는 2026년부터 16세 미만 사용자에 대한 소셜미디어 접근을 금지하겠다고 11월에 발표했다.
NORWAY(노르웨이)
노르웨이 정부는 2024년 10월에 소셜미디어 이용에 필요한 동의 연령을 기존 13세에서 15세로 상향하는 방안을 제안했다. 다만 부모가 동의하면 연령 미만의 아동도 플랫폼을 이용할 수 있도록 허용할 예정이며, 절대적 최소 연령을 15세로 설정하는 법제화 작업도 시작했다.
THE U.S.(미국)
미국의 경우 Children’s Online Privacy Protection Act(COPPA)가 13세 미만 아동의 개인정보를 부모 동의 없이 수집하는 것을 금지하고 있다. 또한 몇몇 주에서는 미성년자의 소셜미디어 접근에 부모 동의를 요구하는 법안을 통과시켰으나 표현의 자유 문제로 법원이 이를 심리·제한하는 사례도 있다.
EU LEGISLATION(유럽연합 입법 움직임)
유럽의회는 11월에 소셜미디어에 대한 최소 연령을 16세로 설정해 “연령에 부합하는 온라인 참여(age-appropriate online engagement)”를 보장하자는 결의안을 채택했다. 아울러 영상 공유 서비스와 ‘AI 동반자(AI companions)’에는 13세의 연령한계를 권고하는 등 디지털 연령 기준의 조화(harmonised EU digital age limit)를 촉구했으나 해당 결의안은 법적 구속력은 없다.
TECH INDUSTRY’S OWN REGULATION(테크 업계 자체 규제)
틱톡(TikTok), 페이스북(Facebook), 스냅챗(Snapchat) 등 주요 소셜미디어 플랫폼은 계정 가입에 최소 13세 이상의 나이를 요구하고 있다. 그러나 아동보호단체들은 이러한 업계 자율 규제는 미흡하다고 지적하며, 몇몇 유럽 국가의 공식 통계는 13세 미만 아동의 소셜미디어 계정 보유가 대규모로 존재함을 보여준다.
용어 설명
디지털 동의 연령(digital age of consent)은 온라인 서비스가 이용자의 자기결정권을 인정해 개인정보 수집·처리와 서비스 이용에 대해 본인이 동의할 수 있는 최소 연령을 의미한다. 마이너 모드(minor mode)는 기기나 앱 단위에서 아동의 사용 시간을 제한하거나 기능을 축소하는 설정을 말하며, 플랫폼 차원의 연령 확인과는 구별된다. COPPA(Children’s Online Privacy Protection Act)는 미국에서 13세 미만 아동의 개인정보를 부모 동의 없이 수집하는 것을 금지하는 법이다.
정책 변화가 시장과 기업에 미치는 영향 분석
이와 같은 연령 기반 규제 강화는 글로벌 플랫폼의 사용자 기반과 수익구조에 의미 있는 영향을 미칠 가능성이 있다. 우선 특정 연령대(13~16세)에 해당하는 사용자군의 접근 제한은 플랫폼의 활성 사용자 수와 이용시간 감소로 이어질 수 있으며, 이는 광고 기반 수익에 하방 압력을 가할 수 있다. 또한 연령 확인과 부모 동의 절차, 기기·앱 단위의 기술적 변경, 법적 컴플라이언스 시스템 구축 등으로 인한 초기 비용이 증가할 전망이다. 규제 불확실성이 해소되지 않을 경우 단기적으로는 플랫폼 주가의 변동성 확대와 광고회사·앱 개발사 등의 매출·수익성 변동이 우려된다. 반면 장기적으로는 아동 보호를 강화한 규제 환경이 형성되면 사용자 신뢰 제고와 브랜드 리스크 축소로 이어져 규제에 적응한 업체에게는 안정적 성장의 기회도 제공할 수 있다.
실무적 시사점
기업은 연령 확인 기술, 부모 동의 관리 시스템, 지역별 규제 준수 프레임워크를 우선적으로 점검해야 한다. 광고주와 마케터는 타깃팅 전략을 재설계하고, 아동·청소년 대상 콘텐츠의 정책 준수 여부를 확인해야 한다. 정책 입안자와 규제 당국은 기술적 실행 가능성(연령확인 방법, 인증 절차 등)을 고려한 세부 규칙을 마련하고, 업계와의 협의를 통해 집행 가능성을 높이는 것이 중요하다.
요약 데이터
주요 수치로는 호주가 부과할 수 있는 최대 과태료 A$49.5 million(미화 $33.3 million), 호주 법의 시행일 2025년 12월 10일, 유럽의회 권고 최소 연령 16세 등이 있다. 환율 표시는 원문 기준으로 $1 = 1.4857 Australian dollars이다.
결론적으로 여러 국가의 규제 조치가 공통적으로 목표로 하는 것은 미성년자, 특히 청소년의 온라인 안전과 개인정보 보호를 강화하는 것이다. 각국의 연령 기준과 집행 방식은 차이를 보이며, 업계와 시장에는 단기적 조정과 장기적 구조 변화의 시그널을 제공하고 있다.










