Онлайн видео платформата YouTube разкри, че повече от 80% от видеоклиповете с насилие и екстремистко съдържание, които са свалени от уебсайта през септември, са открити от нейните инструменти за борба със спама, разполагащи с изкуствен интелект, пише Financial Times.
Компанията, която е собственост на Google, започна да използва алгоритми за машинно самообучение към своите видеа още през юни, така че да може бързо да забелязва проблемно съдържание и да го маркира за преглеждане от хора.
„Това може да бъде предизвикателство: видео на терористична атака може да бъде част от новинарска емисия, ако е показано от BBC, или да е възхвала на насилието, ако е качено в различен контекст от различен потребител“, коментира през юни Кент Уокър, старши вицепрезидент на Google.
Тогава той обеща, че компанията ще инвестира повече инженерни ресурси в проучване на машинното обучение, за да може по-бързо да засича и премахва проблемно съдържание.
Технологията за засичане на екстремистко съдържание е част от усилията на големите американски технологични компании да адресират проблема с нарастващите критики от страна на правителствата в Европа и САЩ, че могат да направят повече, за да се борят с пропагандата.
През септември Twitter обяви, че е премахнала близо 300 хил. акаунта, свързани с екстремизъм, в рамките на първите шест месеца на годината. Почти всички профили са били засечени от нейните алгоритми.
През юни Facebook съобщи, че е инвестирала в автоматизирана технология, за да подобри процеса по засичане и сваляне на екстремистко съдържание.
Според данните на YouTube над 83% от свалените през септември видеа са открити от алгоритмите. Това е с 8 процентни пункта повече спрямо предходния месец.