マスク氏「ひどすぎる(Terrible)」メタ、未成年被害を放置 危険コンテンツ頻発も削除せず:メタへの訴訟で判明
Musk: “Terrible.” Meta Ignored Harm to Minors, Failed to Remove Dangerous Content, Lawsuit Reveals
メタ社に対する子供安全訴訟:新公開文書が暴露カリフォルニア北地区連邦裁判所で進行中の大規模集団訴訟で、2024年12月に原告側が提出したブリーフが公開された。
この訴訟は、Meta(Instagram、Facebookの親会社)を含むソーシャルメディア大手(TikTok、Snapchat、YouTube)を相手に、1800人以上の子供・親・学校区・州司法長官が提訴。子供の精神的・身体的健康を害したとして、Metaの利益優先の設計を糾弾している。
Terrible https://t.co/E67gdJEYvI
— Elon Musk (@elonmusk) November 22, 2025

主な告発内容内部文書や元社員証言に基づき、Metaは子供への有害影響を認識しながら放置したとされる。具体的に:性的人身売買リスク軽視:元Instagram安全責任者Vaishnavi Jayakumarの証言で、「17x」ポリシーが暴露。性的人身売買関連アカウントに対し、16回の違反まで停止せず、17回目でようやく措置。
これは「業界基準で極めて高い閾値」と批判され、子供の性的虐待コンテンツ報告が困難で、削除がほとんど行われなかった。
精神的健康悪化の隠蔽:2019年の「非活性化研究」で、使用停止により子供の不安が減少した結果を公表せず、2020年の議会公聴会で「相関なし」と虚偽証言。元副社長Brian Bolandは「ユーザー安全を本気で気にしていない」と証言。Instagram CEO Adam Mosseriが、安全機能(いいね非表示、美容フィルター禁止)を成長優先で撤回した事実も明らか。

中毒性設計と標的化:Zuckerberg CEOが2017年に「ティーン使用時間を最大化」と指示。13歳未満ユーザーを400万人知りながら放置、5-10歳向け製品も検討。2018年調査でFacebookユーザーの58%が「問題使用」と判明したが、重度3.1%のみ公表。ティーンアカウントをデフォルト非公開にせず、54億件の成人からの不要接触が発生(2024年まで)。
専門家とMetaの反応原告側弁護士Previn Warrenは「Metaは中毒性製品を子供に売りつけ、利益優先。タバコ産業同様に危険」と非難。AIで有害コンテンツ(自傷94%確信時)を検出しても自動削除せず、子供保護を怠った。Metaは「告発は誤解。10年以上にわたり安全を改善」と反論。
2024年にTeen Accountsを導入(自動プライベート設定、通知制限、親許可)したが、原告は長年の抵抗を問題視。影響と展望この公開文書は、ソーシャルメディアの子供保護規制強化を促す可能性大。訴訟は進行中で、公衆衛生・政策に波及。子供のオンライン安全が、企業倫理の試金石となっている。(Time)

参考記事




