Facebook Inc се е съгласила да плати в рамките на извънсъдебно споразумение 52 млн. долара на модератори на съдържание, които са следили публикациите на платформите на компанията.
В заведено през 2018 година дело служители на подизпълнител твърдят, че Facebook не ги е предпазил достатъчно от тежките психологически травми и други вреди, които могат да претърпят заради многократния сблъсък с графични материали, показващи жестокости като малтретиране на деца, обезглавявания, тероризъм, жестокост към животните и други.
Договореното извънсъдебно споразумение предвижда по 1000 долара за модераторите, които са се включили в колективния иск. Тези, които са диагностицирани със състояния, свързани с работата им, ще могат да получат лечение и обезщетения до 50 000 долара, според предварителния текст на споразумението, представен пред съда.
В изявление социалната мрежа благодари „на хората, които вършат тази важна работа, за да направят Facebook безопасна среда за всички".
„Ние сме доволни, че Facebook работи с нас, за да създаде безпрецедентна програма за подпомагане на хората, извършващи дейност, която беше невъобразима дори преди няколко години“, казва в изявление от вторник Стив Уилямс, един от адвокатите, представляващи модераторите. „Вредата, която може да бъде понесена от тази работа, е истинска и тежка“, добавя той, цитиран от Bloomberg.
След президентските избори в САЩ през 2016 г. Facebook се втурна да разшири усилията си за мониторинг на своите платформи, опитвайки се да задържи политическата дезинформация, графичното насилие, терористичната пропаганда и разпространението на порнография далеч от сайтовете си. Това наложи ползването както на нови технологии, така и на хиляди нови служители. През миналата година Facebook имаше около 15 000 рецензенти за съдържание, почти всички от които са работели не за самия Facebook, а за подизпълнители като Accenture и Cognizant.
Споразумението се случва, след като много модератори на съдържание бяха отстранени заради опасенията за сигурността и поверителността на дейността, която се извършва от домовете си заради мерките за ограничаване на пандемията. Facebook бавно връща модераторите обратно онлайн, но в дългосрочен план компанията инвестира повече в изкуствен интелект, отколкото в хора.
Компанията отчете по-рано във вторник рязко увеличаване в броя на постовете, свалени заради насърчаване към насилие и реч на омразата в приложенията ѝ. Според концерна тази тенденция се дължи на подобренията в технологията за автоматично засичане на вредни текстове и изображения. Най-голямата социална мрежа в света е премахнала около 4,7 милиона поста, свързани с организирани структури, насаждащи омраза, от основната си платформа през първото тримесечие на 2020 година. Предходното тримесечие изтритите постове са били 1,6 милиона. Премахнати са и 9,6 милиона поста, съдържащи език на омразата, спрямо 5,7 милиона през последното тримесечие на 2019 година.
Вижте повече технологични новини във видео материала на Bloomberg TV Bulgaria!