新しい研究によると、親会社Metaが所有するInstagramは、ティーンエイジャーの間で自己傷害コンテンツの拡散を積極的に促進していることが明らかになりました。この研究では、Metaのソーシャルメディアプラットフォームにおけるモデレーションの取り組みが「非常に不十分」であり、露骨な画像を削除できず、そのようなコンテンツに関与しているユーザー同士のつながりを促していることが判明しました。
デンマークの研究者たちは、13歳の若者の偽プロフィールを含むプライベートな自己傷害ネットワークをInstagram上に作成する実験を行いました。1ヶ月の間に、彼らは血液、カミソリ、自己傷害の奨励を含む、徐々に深刻さを増す85件の自己傷害関連コンテンツを共有しました。
この研究の目的は、Metaが有害コンテンツを削除するためのプロセスを人工知能(AI)を使用して大幅に改善したという主張を検証することでした。しかし、結果は衝撃的でした。実験中に削除された画像は1枚もありませんでした。それに対して、責任あるデジタル開発を促進する組織Digitalt Ansvarが独自のシンプルなAIツールを開発してコンテンツを分析したところ、自己傷害画像の38%、最も深刻なものの88%を自動的に特定することができました。これは、Instagramが問題に対処できる技術を持っていたにもかかわらず、効果的に実施しないことを選択したことを示しています。
Instagramでの不十分なモデレーションは、EU法の遵守に関する懸念を引き起こしています。Digitalt Ansvarによれば、プラットフォームが自己傷害コンテンツに関連する体系的リスクに対処できていないことは、デジタルサービス法の遵守が欠如していることを示唆しています。
若者のメンタルヘルス慈善団体stem4が実施した調査によると、質問を受けた子供や若者のほぼ半数が、外見に関するオンラインのいじめやトロールによってウェルビーイングに悪影響を受けたと報告しています。これらの影響は、引きこもりや過度の運動から、完全な社会的孤立や自傷行為に至るまで様々です。
しかし、デンマークの研究では、自己傷害ネットワークを閉鎖しようとするのではなく、Instagramのアルゴリズムがその拡大を積極的に助長していることがわかりました。研究によると、自己傷害グループの1人とつながった13歳の子供たちは、他のすべてのメンバーと友達になるよう促されました。この不穏な発見は、Instagramのアルゴリズムが自己傷害ネットワークの形成と拡散に寄与していることを示唆しています。
Hesby Holmは、Metaが研究のために作成されたような小規模なプライベートグループのモデレーションを怠ることで、高いトラフィックとエンゲージメントを維持することを優先している可能性があると推測しました。彼は、彼らが大規模なグループをモデレートしているかどうかは不明であるものの、自傷行為に関するグループはサイズが小さい傾向があることを指摘しました。
この研究の結果は、Instagramがティーンエイジャーの自傷行為に関連する有害なコンテンツの拡散に対処し、軽減することに失敗していることを明らかにしています。その影響は広範囲に及び、規制への準拠に関する懸念を引き起こすだけでなく、脆弱な個人を保護するための効果的なモデレーションの実践が急務であることを強調しています。メンタルヘルスと幸福への影響は過小評価できず、Instagramのようなソーシャルメディアプラットフォームがユーザーの安全を優先することが不可欠です。