메타 법원 패소, AI 연구와 소비자 안전에 미칠 파장

메타(Meta)의 최근 연이은 법원 패소는 단순한 소송 패배를 넘어 기술기업의 내부 연구 활동과 향후 인공지능(AI) 개발 및 소비자 안전 정책에 중대한 영향을 미칠 가능성이 있다. 이번 사건은 기업 내부에서 수행된 소셜미디어·사용자 영향 관련 연구들이 법정에서 회사에 불리한 증거로 활용되면서, 향후 기업들이 자발적으로 진행해온 내부 연구를 축소하거나 은폐할 유인이 커질 수 있음을 시사한다.

2026년 3월 29일, CNBC의 보도에 따르면 메타는 최근 뉴멕시코(New Mexico)와 로스앤젤레스(Los Angeles)에서 열린 두 건의 재판에서 패소했다. 두 재판의 공통된 주제는 회사가 자사 제품의 유해성에 대해 알고 있었음에도 이를 공개하지 않았다는 점이다. 배심원들은 수백만 건에 달하는 회사 내부 문서, 임원 이메일, 프레젠테이션 그리고 메타 연구진이 수행한 내부 조사 자료들을 검토한 끝에 메타가 사이트를 충분히 규제하지 않아 아동에게 위험을 초래했다고 판단했다.

Evercore ISI 이미지
관련 재판 중 공개된 내부 문서와 증거들이 판결에 큰 영향을 미쳤다.

이번 재판에서 배심원들이 검토한 문서에는 10대 이용자들이 인스타그램에서 원하지 않는 성적 접근을 받았다는 내부 설문 결과와, 페이스북 사용을 줄인 이용자들이 우울감과 불안을 덜 느꼈다는 내부 연구 결과 등이 포함되어 있었다. 메타의 변호인단은 일부 연구가 오래되었고 문맥에서 벗어나 오해를 일으킬 수 있다고 주장했으나, 배심원단은 회사의 내부 인식과 공개 언행 사이의 불일치를 중대하게 받아들였다.

브라이언 볼랜드(Brian Boland) 전 페이스북 임원은 두 재판 모두에서 증언했고, 내부 연구 결과들이 공적으로 표명된 회사 이미지와 모순되는 부분이 있었다고 진술했다. 그는

“한때 내부에 구성된 연구팀들이 제품에서 발생하는 현상을 보다 자유롭게 조사할 수 있는 시기가 있었고, 그때는 뛰어난 연구자들이 있었다”

며 현재는 그런 자유가 줄어들었다고 말했다.

리사 스트로먼(Lisa Strohman) 박사(심리학자·변호사)는 뉴멕시코 소송의 내부 자문 전문가로 활동했다. 그녀는 기업들이 내부 연구를 대중에게 보이기 위한 수단으로 활용하려 했을 수 있으나, 연구자들이 단지 회사의 편의에 따라 행동하지 않았다고 지적했다. 특히 내부고발자(whistleblower)인 프랜시스 하우겐(Frances Haugen)의 2021년 문서 유출 사건은 전환점이었고, 이로 인해 메타와 업계 전반에서 유해성 연구를 축소하거나 팀을 해체하는 움직임이 나타났다고 전했다.

규제 압력 관련 이미지
전문가들은 이번 판결이 규제 강화와 기업 내부 연구의 감소로 이어질 가능성을 우려한다.

비영리기관 Children and Screens: Institute of Digital Media and Child Development의 연구·프로그램 책임자 케이트 블로커(Kate Blocker)는 하우겐의 폭로가 연구자, 정책입안자, 일반 대중에게 중요한 전환점이 되었다고 평가했다. 블로커는 이어서

“기업들이 내부 연구를 잠재적 책임으로 간주할 수 있지만, 독립적 제3자 연구는 지속적으로 지원되어야 한다”

고 강조했다.

테크 감독 프로젝트(Tech Oversight Project)의 이그제큐티브 디렉터 사차 하워스(Sacha Haworth)는 이번 재판에서 공개된 자료들이 새로운 사실을 대대적으로 드러낸 것은 아니라고 보았으나, “정확한 이메일들, 스크린샷들, 내부 마케팅 프레젠테이션, 메모들”이 문맥을 제공해 중요한 역할을 했다고 평가했다.

용어 설명
내부고발자(whistleblower): 조직 내부에서 불법·비윤리적 행위 또는 공공의 해를 알리는 직원이나 전 직원. 2021년 프랜시스 하우겐의 사례는 소셜미디어의 잠재적 유해성에 대한 내부 문건을 공개한 대표적 사례다. AI 분야에서의 ‘정렬(alignment)’: AI 모델의 행동을 인간의 가치와 목표에 맞추려는 연구 분야로, 모델의 의도·결과를 통제하고 예측 가능하도록 만드는 것을 목표로 한다.

AI 연구와 소비자 안전에 대한 영향
이번 사건은 AI 기업들, 특히 메타·오픈AI·구글 등 제품 상용화에 주력하는 기업들에게 연구·안전 우선순위의 전환을 촉구하는 신호로 읽힌다. 기사에서는 이미 많은 기업들이 모델 자체의 성능·정확성·정렬 연구에 집중하면서, 챗봇·디지털 어시스턴트가 아동 발달에 미치는 영향 등 사용자 중심의 영향 연구는 상대적으로 부족하다고 지적했다. 블로커는 “AI 기업들이 과거 소셜미디어에서 발생한 실수를 반복하지 않기 위해 투명성과 접근성 체계를 마련해야 한다”고 촉구했다.

경제·시장에 미칠 파장 분석
법원 판결과 그에 따른 자료 공개는 기술 기업들에게 다음과 같은 경제적 영향을 유발할 가능성이 있다. 첫째, 소송·규제 비용 상승이다. 기업들은 추가 소송과 규제 대응을 위해 법률 비용과 준법 비용을 늘려야 할 가능성이 크다. 둘째, 연구·개발(R&D) 우선순위의 변화다. 기업들은 위험요인을 공개하는 내부 연구를 줄이는 대신 제품 출시와 마케팅에 자원을 배분할 유인이 생긴다. 이는 장기적으로 안전성 검증의 공백을 만들 수 있다. 셋째, 주가의 단기적 변동성이 증가할 수 있다. 규제 리스크와 소송 리스크는 투자자들에게 불확실성을 제공하고, 기술섹터 내 자금 흐름을 변동시키며, 특히 소셜미디어·AI 관련 업체들의 밸류에이션에 하방 압력으로 작용할 수 있다. 마지막으로, 규제 강화에 따른 사업모델 재검토 가능성이 있다. 글로벌 규제 당국이 소비자 보호를 중심으로 한 표준을 강화하면, 데이터 수집·활용 및 제품 기능 설계에 대한 제약이 늘어날 수 있다.

정책적 함의와 권고
이번 판결은 기업 자율에만 의존하던 안전·윤리 연구의 한계를 보여준다. 따라서 정책 입안자와 규제기관은 기업 내부 연구의 투명성 확보, 독립적 감시기관의 설립, 그리고 아동·청소년 보호를 위한 별도의 연구·검증 체계 마련을 고려해야 한다. 기업 측면에서는 내부 연구의 투명화를 통해 장기적 신뢰를 구축하고, 외부 독립 연구자와의 협력을 강화함으로써 법적·사회적 리스크를 줄이는 전략이 필요하다.

결론
메타의 법원 패소는 단순히 한 기업의 명운을 가르는 사건이 아니라, 기술기업들이 내부에서 알고 있는 정보를 어떻게 관리하고 공개할 것인지에 대한 근본적 질문을 제기한다. 기업의 단기적 리스크 회피장기적 사회적 책임 사이의 균형을 어떻게 설정하느냐가 향후 AI 발전과 소비자 안전의 향방을 결정할 것이다. 향후 소송 결과와 규제 당국의 대응, 그리고 기업들이 내부 연구를 어떻게 재구성하는지에 따라 기술 섹터의 투자 환경과 제품 개발 관행이 변화할 것으로 전망된다.


발행일: 2026년 3월 29일 | 원문 출처: CNBC 보도 내용을 바탕으로 재구성