Ето как работи всичко:
Един от ботовете е програмиран да се ангажира с видеоклипове с хаштагове, свързани с наркотици, както и с други теми. На първия ден в платформата профилът се спира на клип на млада жена, която се разхожда из гора, а написът предполага, че тя търси марихуана. На следващия ден акаунтът гледа видео с тематична „марихуанова“ торта.
Скоро след това списъкът с клипове на тинейджъра рязко се променя, като по-голямата част от следващите хиляди видеа, които му се предлагат, включват наркотици и употребата на наркотици, включително марихуана, психеделични субстанции и лекарства, отпускани по рецепта.
Един от клиповете показва човек, който издиша дим, като се предлага линк към уебсайт, който предлага „вкусни лакомства за всички“ и откровено е свързан с продажбата на марихуана. Създателят на видеото не е отговорил на въпросите за това, че видеото е показвано на акаунт, регистриран като 13-годишно дете.
Десетина от общо 31 акаунта на деца, които WSJ създава, са доминирани от конкретна тема.
Това може да е особено проблемно за младите хора, които може да не могат да спрат да гледат и нямат подкрепящи възрастни наоколо, твърди Дейвид Андерсън, клиничен психолог в The Child Mind Institute. По думите му тези тинейджъри могат да се окажат в „перфектната буря“, в която социалните мрежи нормализират и влияят върху начина, по който гледат на наркотиците и на други неща.
Дори когато акаунтите на WSJ са програмирани да показват интерес по няколко въпроса, TikTok понякога игнорира даден интерес и им предлага стотици видеа за друг интерес в продължителна последователност.
TikTok предлага на един от профилите, програмиран с различни интереси, стотици японски анимации. В една от поредиците от 150 видеоклипа всички освен четири включват японска анимация, а много от тях са на сексуални теми.
Говорителката на TikTok твърди, че ботовете на WSJ „по никакъв начин не представят поведението и преживяването при гледане от реален човек“, отчасти защото хората имат разнообразни и променящи се интереси. Тя допълва, че платформата разглежда възможностите за предотвратяване на създаването на „негативни цикли“ от съдържание, особено за по-младите потребители.
Говорителката коментира, че когато потребител се натъкне на съдържание, което не иска да вижда, може да избере „не се интересувам“, за да вижда по-малко такива клипове.
Част от акаунтите на медията са били програмирани така, че да гледат повторно видеа със сексуален текст или картина, а скоро са се озовали в поток от сексуално съдържание, включително същия този профил.
Десетки видеа насърчават потребителите да следват линкове към абонаментни страници в OnlyFans.com – базирана на абонаменти социална мрежа, която включва развлечение за възрастни, включително сексуално и друго съдържание.
Други публикации рекламират секс магазини и стриптийз клубове. Редица от тези видеа, които вече са премахнати, показват жени, които си търсят „европейски или американски“ гаджета, и включват информация с контактите им. Десетки видеоклипове, популяризиращи платена порнография, са изтрити оттогава от приложението.
преди 3 години За мен не е, аз съм решил този проблем като приемам всяка социална мрежа за тази цел. отговор Сигнализирай за неуместен коментар
преди 3 години Тръмп искаше да забрани Tik Tok, ама нали Orange man bad. отговор Сигнализирай за неуместен коментар
преди 3 години Има, когато основните потребители са непълнолетни и то под 16г.. Има онлифенс за тая цел. отговор Сигнализирай за неуместен коментар
преди 3 години Няма проблем да показват секс, може би само с наркотиците е полезно да намалят. отговор Сигнализирай за неуместен коментар