Facebook обяви в четвъртък, че софтуерът ѝ за изкуствен интелект вече открива 94,7% от речта на омразата, която се премахва от платформата му.
Майк Шрьопфер, главен технологичен директор на Facebook, разкри цифрата в публикация в блог, добавяйки, че тя е по-висока от 80,5% преди година и едва 24% през 2017 г. Тази цифра е споделена и в последния доклад на Facebook за прилагането на стандартите.
Компаниите за социални медии като Facebook, Twitter и TikTok са критикувани, че не успяват да държат настрана речта на омразата от своите платформи, като расови обиди и религиозни атаки.
Компаниите наемат хиляди модератори на съдържание по целия свят, за да контролират публикациите, снимките и видеоклиповете, които се споделят на техните платформи. В сряда над 200 модератори на Facebook заявиха в отворено писмо до главния изпълнителен директор Марк Зукърбърг, че компанията е рискувала живота им, като ги е принудила да се върнат в офиса по време на пандемията на коронавируса, предава CNBC.
Но само хората не са достатъчни и технологичните гиганти стават все по-зависими от една област на изкуствения интелект, известна като машинно обучение, при която алгоритмите се подобряват автоматично чрез натрупания си опит.
„Основен акцент в усилията на Facebook по отношение на изкуствения интелект е внедряването на модерна технология за машинно обучение, за да се защитят хората от вредно съдържание“, казва Шрьопфер.
„На фона на милиарди хора, използващи нашите платформи, ние разчитаме на изкуствения интелект да мащабира работата си по прегледа на съдържанието и да автоматизира решенията, когато е възможно“, добави той. „Нашата цел е да разпознаем речта на омразата, дезинформацията и други форми на съдържание, нарушаващо политиката ни, бързо и точно, за всяка форма на съдържание и за всеки език и общност по света“, посочва Шрьопфер.
Но софтуерът за изкуствен интелект на Facebook все още се затруднява да открие някои части от съдържанието, които нарушават правилата. По-трудно е, например, да се разбере смисъла на изображенията, върху които е насложен текст, и не винаги технологията разбира сарказъма или жаргона. В много от тези случаи хората много по-бързо ще могат да определят дали въпросното съдържание нарушава политиките на Facebook. Facebook заяви, че наскоро е внедрила две нови технологии за изкуствен интелект, за да му помогнат да се справи с тези предизвикателства. Първата се нарича “Reinforced Integrity Optimizer,” който се учи от реални онлайн примери и показатели вместо офлайн набор от данни. Втората е архитектура на изкуствения интелект, наречена „Linformer“, която позволява на Facebook да използва сложни модели за разбиране на езика, които преди са били твърде големи и „тромави“, за да работят в голям мащаб. „Сега вече реално ги ползваме, за да анализираме съдържанието на Facebook и Instagram в различни региони по света“, каза Шрьопфер. Facebook заяви, че е разработил и нов инструмент за откриване на дълбоки фалшификати (генерирани от компютър видеоклипове, направени да изглеждат катореални) и е осъществил някои подобрения в съществуваща система, наречена SimSearchNet, която е инструмент за съвпадение на изображения, предназначен да открива дезинформацията на платформата. „Взети заедно, всички тези иновации означават, че нашите системи за изкуствен интелект мат по-дълбоко и по-широко разбиране за съдържанието“, казва Шрьопфер. Той обаче отбеляза, че предизвикателствата, пред които е изправен Facebook, са „сложни, нюансирани и бързо развиващи се“, добавяйки, че неправилното класифициране на съдържание като език на омразата или дезинформация може да „попречи на способността на хората да изразяват себе си“.