TikTok и Instagram са обвинени, че са насочени към тийнейджъри със съдържание, свързано със самоубийство и самонараняване - в по-висок процент, отколкото преди две години, пише SkyNews.

Фондация "Моли Роуз“ – създадена от Иън Ръсел, след като 14-годишната му дъщеря се самоуби, след като видя вредно съдържание в социалните медии – поръча анализ на стотици публикации в платформите, използвайки профили на 15-годишно момиче, живеещо във Великобритания.

Благотворителната организация твърди, че видеоклиповете, препоръчани от алгоритми на страниците "For You“, продължават да съдържат "цунами“ от клипове, съдържащи "самоубийство, самонараняване и интензивна депресия“, за лица под 16 години, които преди това са се занимавали с подобен материал.

Една от всеки 10 от вредните публикации е била харесана поне милион пъти. Средният брой харесвания е бил 226 000, според изследователите.

Г-н Ръсел каза пред Sky News, че резултатите са "ужасяващи“ и показват, че законите за онлайн безопасност не са подходящи за целта.

Той каза: "Потресаващо е, че осем години след смъртта на Моли, невероятно вредно съдържание за самоубийство, самонараняване и депресия, подобно на това, което тя е видяла, все още е широко разпространено в социалните медии.“

"Последните кодекси за безопасност на децата на Ofcom не съответстват на огромния мащаб на вредите, които се внушават на уязвимите потребители, и в крайна сметка правят малко, за да предотвратят повече смъртни случаи като този на Моли.“

"Ситуацията се е влошила, вместо да се е подобрила, въпреки действията на правителствата, регулаторните органи и хора като мен. Докладът показва, че ако се отклоните в заешката дупка на вредното съдържание за самоубийство и самонараняване, това е почти неизбежно.“

"Повече от година тази напълно предотвратима вреда се случва под ръководството на премиера и там, където Ofcom беше плах, е време той да бъде силен и да предложи незабавно по-силно, животоспасяващо законодателство.“

След смъртта на Моли през 2017 г., съдебният лекар постанови, че тя е страдала от депресия, а материалите, които е гледала онлайн, са допринесли за смъртта ѝ "по повече от минимален начин“.

Изследователи от Bright Data са разгледали 300 Instagram видеоклипа и 242 TikTok видеота, за да определят дали те "насърчават и прославят самоубийството и самонараняването“, споменават идеи или методи или "теми за интензивна безнадеждност, страдание и отчаяние“.

Те са събрани между ноември 2024 г. и март 2025 г., преди през юли да влязат в сила нови детски кодекси за технологичните компании съгласно Закона за онлайн безопасност .

Инстаграм

Фондация "Моли Роуз“ твърди, че Instagram "продължава алгоритмично да препоръчва ужасяващо големи количества вредни материали“.

Изследователите заявиха, че 97% от видеоклиповете, препоръчани в Instagram Reels за акаунта на тийнейджърка, която преди това е разглеждала това съдържание, са били оценени като вредни.

Около 44% активно споменават самоубийство и самонараняване, казаха те. Те също така твърдят, че вредно съдържание е изпращано в имейли, съдържащи препоръчително съдържание за потребителите.

Говорител на Meta, собственик на Instagram, заяви: "Не сме съгласни с твърденията в този доклад и ограничената методология, която стои зад него.“

Десетки милиони тийнейджъри вече имат профили в Instagram за тийнейджъри, които предлагат вградени защити, ограничаващи кой може да се свързва с тях, съдържанието, което виждат, и времето, което прекарват в Instagram.

"Продължаваме да използваме автоматизирана технология за премахване на съдържание, насърчаващо самоубийство и самонараняване, като 99% от случаите са предприети проактивни действия, преди да ни бъде докладвано. Разработихме "Профили за тийнейджъри“, за да помогнем за защитата на тийнейджърите онлайн и продължаваме да работим неуморно, за да постигнем точно това.“

ТикТок

TikTok беше обвинен, че препоръчва "почти непрекъснато снабдяване с вредни материали“, като 96% от видеоклиповете бяха оценени като вредни, се казва в доклада.

Твърди се, че над половината (55%) от публикациите в "For You“ са свързани със самоубийство и самонараняване; едно-единствено търсене е довело до публикации, насърчаващи суицидно поведение, опасни каскади и предизвикателства.

В доклада се твърди, че броят на проблемните хаштагове се е увеличил от 2023 г. насам; много от тях са споделяни в силно последователни акаунти, които съставят "плейлисти“ с вредно съдържание.

Говорител на TikTok заяви: "Тийнейджърските акаунти в TikTok имат над 50 функции и настройки, предназначени да им помогнат да се изразяват, да откриват и учат безопасно, а родителите могат допълнително да персонализират над 20 настройки за съдържание и поверителност чрез Family Pairing.“

"Тъй като над 99% от нарушаващото съдържание е проактивно премахнато от TikTok, констатациите не отразяват реалния опит на хората на нашата платформа, което докладът признава.“

Според TikTok, те не позволяват съдържание, показващо или насърчаващо самоубийство и самонараняване, и казват, че забранените хаштагове водят потребителите до телефонни линии за подкрепа.