Facebook обикновено разчита на своите 1,5 млрд. потребители да сигнализират за обидно съдържание, но миналата година социалната мрежа започна сама да следи за него, пише Wall Street Journal.
В четвъртък социалната мрежа премахна профил, използван от двама потребители, заподозрени в убийството на 14 души предишния ден в Сан Бернадино, Калифорния. Говорителят на компанията заяви, че страницата е нарушила стандартите на общността, публикувайки статуси, снимки или видеа, които подкрепят тероризма и насилието. Заподозреният Ташфин Малик е публикувал нещо по време на стрелбата, но Facebook отказва да разкрие за какво съдържание става дума. Освен това не пожела да обяви как е открила профила и е потвърдила самоличността на мъжа.
Ходът разкрива увеличаващото се напрежение в сайтове като Facebook, YouTube на Alphabet и Twitter да следят, а понякога и да премахват, съдържание, което е свързано с насилие и пропаганда, извършвана от терористични групи. Не е ясно в колко тесни връзки работи всяка от тези компании с правителствата, колко често премахва подобно съдържание и как успява да го идентифицира.
"Когато става дума за терористично съдържание, със сигурност компаниите се намират в специфична позиция", коментира Джулиан Йорк, директор в Electronic Frontier Foundation, отговарящ за международната свобода на изразяване. „Аз все още се притеснявам от даването на прекалено голяма власт на компании, които са недемократични по своята същност, за да регулират речта. Това е опасно“.
И трите изброени компании използват технология за сканиране на снимки, свързани със сексуално насилие над деца. Хари Фарид, председател на едно на подразделението за компютърни науки в Dartmouth College, който е помогнал за разработването на системата, твърди, че очаква софтуерът да бъде развит, така че да следи и за други видове проблемно съдържание.
Но това се явява предизвикателство по няколко причини. Мониторингът за съдържание с насилие над деца е свързан с база от познати снимки. Въпросната база е създадена от Националния център за изчезнали и експлоатирани деца. Подобно нещо не съществува по отношение на снимките, свързани с тероризма.
Освен това притеснителни снимки често се появяват и в новинарското съдържание, а социалните мрежи не искат да се превръщат в цензор на медиите. През септември главният изпълнителен директор на Facebook Марк Зукърбърг посочи широко споделяната снимка на Айлан Кюрди, 3-годишното момченце бежанец от Сирия, което се удави, а тялото му беше изхвърлено от водата на турския бряг, като пример за изображение, което трябва да е засечено като неподходящо от компютърния алгоритъм, но не е трябвало да се цензурира.
Това оставя поредица от тежки решения в ръцете на социалните мрежи. През 2014 г. YouTube премахна бързо видеа, които показваха обезглавяването на двама американски журналисти от „Ислямска държава“. Twitter избра пасивен подход към същите изображения и ги премахна чак след като потребителите подадоха сигнал за тях. През август същата платформа премахна видеото, което показваше как двама репортери от Virginia TV са застреляни по време на живо предаване.
Говорителят на Twitter отказа да посочи дали е подозирала определени акаунти, свързани със стрелбата в Сан Бернадино. Той не пожела да коментира и въпроса дали Twitter преразглежда своите правила във връзка със случая, както прави Facebook.
Обемите информация, които преминават през социалните мрежи, са истинско предизвикателство. Около 400 часа видео съдържание се публикува в YouTube всяка минута. Уебсайтът не премахва сам клиповете, а чака потребителите да отбележат дадено съдържание за неподходящо. От няколко години тя има кампания за отбелязване на терористично съдържание и не е променила подхода си, твърди източник, запознат с въпроса. YouTube е дала на около 200 души и организации права да „отбелязват“ такива видеа, като могат да маркират до 20 клипа едновременно. В това число влизат полицейски и антитерористични организации, които могат да сигнализират по спешност платформата да разгледа и премахне видеа, които са смятани за екстремистки.
Facebook стана по-агресивна в премахването на подобно съдържание, твърдят експерти. През 2012 г. социалната мрежа заяви, че нападателите, които откриха стрелба в кино в Колорадо, не са нарушили нейните правила, защото не са били заплаха за никого в платформата. Но миналата година премахна страниците, които почитаха стрелеца, убил шест души в Университета на Калифорния в Санта Барбара.
Йорк разкри, че миналата година е открила, че информационните страници във Facebook на ИДИЛ, Хамас и други терористични организации са премахнати. Те съдържаха информация от Wikipedia и не промотираха тероризма, коментира Йорк, допълвайки, че нейното първо впечатление е, че компанията е сканирала публикации превантивно и е премахнала тези, свързани с тероризма.
Facebook обяви, че има „стотици“ служители, които разглеждат съдържанието, докладвано от потребителите. Те работят в четири офиса на компанията в различни точки на света. Самите сигнали от потребители са разглеждани с приоритет, ако са свързани с тероризъм.
Още технологични новини вижте във видеото на Bloomberg TV Bulgaria!