Meta Platforms, Inc. (NASDAQ:META), Snap Inc. (NYSE:SNAP), and ByteDance-owned TikTok have announced a joint initiative to combat the spread of suicide and self-harm content online.
What Happened: On Thursday, the tech giants launched a new program named Thrive, aimed at halting the dissemination of graphic content that depicts or encourages self-harm and suicide.
Thrive allows them to exchange "signals" to notify each other about such content on their platforms.
The Mental Health Coalition, a charity organization committed to destigmatizing mental health discussions, has partnered with the three companies to develop this initiative.
According to a blog post shared by Meta, the tech giant has already taken steps to make such content less accessible on its platform. "Between April and June this year, we took action on over 12 million pieces of suicide and self-harm content on Facebook and Instagram.:
However, it aims to maintain a space for users to share their experiences with mental health, suicide, and self-harm, provided they do not promote or provide graphic descriptions of these issues.
Why It Matters: This initiative comes in the wake of increasing concerns about the safety of social media platforms for young users. Last year in November, a Meta whistleblower raised alarms about the safety of Instagram for teenagers.
Similarly, in January 2024, the Attorney General of Iowa initiated a lawsuit against TikTok, accusing the platform of misleading parents about the extent of inappropriate content accessible to young users.
Earlier this year in June, the Los Angeles Board of Education voted to limit phone usage among students during the school day, reflecting growing concerns about the impact of digital content on young minds.
In September, YouTube, owned by Alphabet Inc., also restricted access to certain health and fitness videos for teenagers to protect them from developing negative self-perceptions.
メタ・プラットフォームズ(NASDAQ:META)、スナップ(NYSE:SNAP)、およびbytedance傘下のTikTokは、自殺や自傷行為のコンテンツの拡散に対抗するための共同イニシアチブを発表しました。
木曜日、テックジャイアントは、セルフハームや自殺を描いたり助長するグラフィックコンテンツの拡散を停止することを目的とした「Thrive」という新しいプログラムを立ち上げました。
Thriveは、各プラットフォーム上のそのようなコンテンツについて互いに通知するための「シグナル」を交換することを可能にします。
メンタルヘルスについての議論の偏見を取り除くことに取り組んでいる慈善団体であるメンタルヘルス連合は、この取り組みを開発するためにこの3社と提携しました。
メタが共有したブログ投稿によると、このテックジャイアントは既にプラットフォーム上のそのようなコンテンツへのアクセスを制限するための措置を講じています。「今年の4月から6月にかけて、私たちはFacebookとInstagramで1200万件以上の自殺や自傷行為のコンテンツに対処しました。」
しかし、メンタルヘルス、自殺、自傷行為に関する経験を共有するユーザーには、これらの問題を促進したりグラフィックな詳細を提供することがない限り、そのようなスペースを維持することを目指しています。
なぜ重要か:この取り組みは、若いユーザーのソーシャルメディアプラットフォームの安全性に関する懸念が高まっている中で行われました。昨年11月、Metaの内部告発者がインスタグラムの若者に対する安全性に関して警告を発しました。
同様に、2024年1月、アイオワ州検事総長は、TikTokに対して、若いユーザーがアクセスできる不適切なコンテンツの実態について親を誤解させているとして訴訟を起こしました。
今年の6月に、ロサンゼルス教育委員会は学校の時間中の生徒の携帯電話の利用を制限することを決議しました。これは、若い思考へのデジタルコンテンツの影響に対する懸念が高まっていることを反映しています。
アルファベット社が所有するYouTubeは、9月にも十代の若者のための健康やフィットネスの動画へのアクセスを制限し、彼らがネガティブな自己認識を持つことを防ぐためにしました。