유럽연합(EU), Meta가 Instagram과 Facebook의 아동 안전 규칙을 위반했을 가능성 제기

EU가 Meta에 대한 아동 보호 조사 개시
유럽연합 집행위원회는 화요일 Meta가 Instagram과 Facebook에서 13세 미만 아동을 차단하지 않아 유럽법을 위반했을 가능성이 있다고 밝혀, 디지털 서비스법(DSA)에 따른 회사의 아동 보호 관행에 대한 조사를 강화했습니다.
집행위원회는 보도자료에서 해당 플랫폼들이 “13세 미만 미성년자가 서비스에 접근하는 위험을 성실하게 식별·평가·완화할 의무”를 다하지 못한 것으로 의심된다고 전했습니다. Instagram과 Facebook은 사용자 최소 연령을 13세로 정하고 있지만, 집행위원회는 Meta가 아동의 자기 신고에 의존하며 가짜 생일을 막을 효과적인 집행 메커니즘이 없다고 지적했습니다.
집행위원회는 또한 Meta가 플랫폼에 들어온 13세 미만 아동을 식별하고 제거하는 데 충분히 노력하지 않는다고 밝혔습니다.
Meta는 EU가 최종 결정을 내리기 전에 소명할 기회를 갖습니다. 회사가 최종적으로 DSA를 위반한 것으로 판명되면 핵심 사업활동 연간 매출의 최대 6%까지 벌금을 부과받을 수 있습니다. 집행위원회는 준수를 강제하기 위해 주기적인 제재도 부과할 수 있습니다.
2024년 5월에 시작된 이번 조사는 위험 평가 보고서, 정보 요청에 대한 응답, 회사 내부 문서 등을 검토했습니다. 집행위원회에 따르면 Meta의 답변은 회원국 전반의 증거와 상충하는데, 해당 증거는 13세 미만 아동의 약 10%~12%가 Instagram이나 Facebook을 이용하고 있음을 시사합니다.
“Meta는 Facebook과 Instagram 같은 서비스가 초래할 수 있는 위해에 대해 더 취약한 어린 연령층을 가리키는 손쉽게 입수 가능한 과학적 증거를 무시한 것으로 보입니다,”라고 집행위원회는 밝혔습니다.
집행위원회는 Meta에게 플랫폼이 아동에게 미치는 위험을 평가하는 방식을 전면적으로 재검토하고, 미성년자 이용을 더 적극적으로 방지하며 미성년자 계정을 제거하도록 요구하고 있습니다. 또한 연령 확인을 DSA 지침상 가능한 해결책으로 지목했습니다.
중독으로부터 사용자를 보호하고 정신 건강을 지키기 위한 DSA 설계 요건을 Meta가 충족했는지에 대한 별도의 조사도 여전히 진행 중입니다.
이번 조치는 유럽 정부들이 미성년자의 소셜미디어 접근을 제한하려는 압박을 강화하는 가운데 나왔습니다. 이달 초 프랑스 상원은 15세 미만 아동의 소셜미디어 이용을 금지하는 법안을 통과시켰고, 스페인, 네덜란드, 영국 및 노르웨이도 제한 쪽으로 움직이고 있습니다.
출처: