欧州委員会、MetaがInstagramとFacebookで子どもの安全規則に違反した可能性を指摘

欧州委員会がMetaに対して子ども安全性の調査を開始
欧州委員会は火曜日、Metaが13歳未満の子どもをInstagramとFacebookから締め出すことに失敗し、デジタルサービス法の下で同社の子ども保護の取り組みに対する監視を強める形で欧州法に違反した可能性があると述べました。
委員会はプレスリリースで、両プラットフォームが「13歳未満の未成年者がサービスへアクセスするリスクを慎重に特定し、評価し、緩和する」という義務を果たしていないと主張したと述べました。InstagramとFacebookはともに利用者の最少年齢を13歳に設定していますが、委員会によればMetaは子どもたちの自己申告に頼っており、偽の生年月日を防ぐ有効な執行メカニズムを備えていないということです。
委員会はまた、Metaがプラットフォームに入り込んでしまった13歳未満の子どもを特定して削除するための対応が不十分であるとも述べました。
Metaは最終決定前に反論する機会が与えられています。最終的に同社がデジタルサービス法に違反したと判断された場合、主要事業活動からの年間収益の最大6%の罰金が科される可能性があります。委員会はまた、遵守を促すために定期的な罰則を課すこともできます。
2024年5月に始まったこの調査では、リスク評価報告書、情報提供要求への回答、同社の内部文書などが精査されました。委員会によれば、Metaの回答は域内の各地から得られた証拠と矛盾しており、約10%〜12%の13歳未満の子どもがInstagramまたはFacebookを使用していることを示唆しているということです。
委員会は「Metaは、FacebookやInstagramのようなサービスによって若年層が被る可能性のある害に対して、若い子どもがより脆弱であることを示す容易に入手可能な科学的証拠を無視しているように見える」と述べました。
委員会はMetaに対し、プラットフォームが子どもに及ぼすリスクの評価方法を全面的に見直し、未成年の利用防止や未成年アカウントの削除をより強化するよう求めています。また、年齢確認をデジタルサービス法のガイドラインに基づく解決策の一つとして指摘しています。
利用者を中毒から守り、メンタルヘルスを保護することを目的としたデジタルサービス法の設計要件をMetaが満たしているかどうかを調べる別の調査は依然進行中です。
この動きは、欧州各国政府が未成年のソーシャルメディア利用への圧力を強める中で行われました。今月初め、フランス上院は15歳未満の子どものソーシャルメディア利用を禁止する決議を可決し、スペイン、オランダ、英国、ノルウェーも規制へ向けた動きを見せています。
情報源: