10代若者の「自殺」検索を保護者に通知 インスタが新機能導入、支援提供へ(2/26)

シェアする

【ロサンゼルス26日】メタ傘下のインスタグラムは近く、10代の子供が自殺や自傷行為に関連するコンテンツをアプリで検索した場合に保護者に通知する機能を導入する。ソーシャルメディアが若者に与える影響を巡る批判が高まる中、同社が安全機能強化に向けた最新の取り組みとして実施する。
 メタ社によると、来週からInstagramの監督ツール(supervision tools)を利用する保護者は、10代の子供が短時間に繰り返し自傷行為や自殺に関連する特定の用語を検索した場合、メール・テキストメッセージ・WhatsApp、およびアプリ内通知を通じてメッセージを受け取るようになる。
 同社は、このメッセージで保護者に「10代の子供が自殺や自傷行為に関するコンテンツを繰り返し検索した」ことを通知し、メンタルヘルスに関するデリケートな会話の進め方に関するリソースを提供するとしている。
 同社は26日のプレスリリースで、「大多数のティーンエイジャーはInstagramで自殺や自傷行為に関するコンテンツを検索しようとはしません。仮に検索した場合でも、当社のポリシーではこうした検索をブロックし、代わりに支援を提供できるリソースやヘルプラインへ誘導します」と述べた。
 メタによると、この新たな安全対策はまず米国、英国、オーストラリア、カナダで導入され、今年後半に他の地域へ展開される予定。
 昨年10月には、18歳未満のユーザーが「アルコール」や「グロテスクな描写」といった特定の用語の検索結果を表示できない年齢制限付きコンテンツ制限も導入した。当時メタは、自殺・自傷行為・摂食障害に関連する検索結果については既に10代を保護していると説明していた。

広告

記事をシェアする

コメントを残す

メールアドレスが公開されることはありません。