Приложения и уебсайтове, които използват изкуствен интелект, за да събличат жени на снимки, стават все по-популярни, твърдят изследователи, цитирани от Bloomberg.
Само през септември 24 млн. души са посетили уебсайтове с подобна функция, посочва компанията за анализ на социални мрежи Graphika.
Много от тези услуги за събличане или „разголване“ използват популярни социални мрежи за маркетинг, допълва от Graphika. От началото на годината например броят на линковете, рекламиращи такъв тип приложения в социалните мрежи, се е увеличил с повече от 2400%, включително в X и Reddit. Услугите използват изкуствен интелект (AI), за да пресъздадат изображението, сякаш човекът на него е гол. Много от услугите работят единствено със снимки на жени.
Тези приложения са част от една тревожна тенденция за порнография без съгласие, която се разработва и разпространява благодарение на напредъка на изкуствения интелект – вид изфабрикуване на съдържание, известно още като deep fake порнография. Разпространението ѝ се сблъсква със сериозни правни и етични пречки, тъй като снимките често се взимат от социални мрежи и се разпространяват без съгласието, контрола и знанието на човека на тях.
Едно от изображенията, публикувано в X и рекламиращо приложение за събличане, използва език, който предполага, че клиентите могат да създават голи изображения, а след това да ги изпращат на човека, чийто образ е бил дигитално съблечен, което подбужда към тормоз. Междувременно едно от приложенията е платило за спонсорирано съдържание в YouTube и се появява при първо търсене на думата „nudify”.
Говорител на Google твърди, че компанията не разрешава реклами, „които съдържат явно сексуално съдържание“.
„Прегледахме въпросните реклами и премахнахме онези, които нарушават правилата ни“, допълва той.
Нито X, нито Reddit са отговорили на запитванията за коментар.
Порнографията на публични личности без съгласието им отдавна е бич на интернет, но експертите по неприкосновеността на личния живот са все по-загрижени, че напредъкът на AI е направил софтуера за дълбоко фалшифициране по-лесен за ползване и по-ефективен.
„Виждаме как все повече и повече това се прави от обикновени хора, а целта им са именно обикновени хора“, коментира Ева Галперин, директор киберсигурност в Electronic Frontier Foundation. „Виждаме го сред деца в гимназиите и сред учещите в колежи“.
Много от жертвите никога не научават за изображенията, но дори и тези, които научават, може да се затруднят да накарат властите да разследват случая или да намерят средства, чрез които да се стигне до правни действия, казва Галперин.
Понастоящем няма федерален закон, забраняващ създаването на deep fake порнография, макар че американското правителство забранява генерирането на този вид изображения на непълнолетни. През ноември детски психиатър от Северна Каролина беше осъден на 40 години затвор за използване на приложения за събличане на снимки на свои пациенти. Това беше и първото наказателно преследване по рода си по закон, забраняващ подобно съдържание.
TikTok е блокирал ключовата дума “undress” (от англ. – съблечи) – популярна при търсене на подобни дигитални услуги. Освен това предупреждава всеки, който я изписва в търсачката, че тя „може да бъде свързана с поведение или съдържание, което нарушава нашите указания“, посочва приложението. Представител на TikTok отказва да разкрие повече подробности.
В отговор на въпроси Meta Platforms посочва, че също е започнала да блокира ключови думи, свързане с търсенето на приложения за събличане. Говорител на компанията е отказал коментар.
преди 10 месеца Това сериозно го публикувахте в ""инвестор"" беге? отговор Сигнализирай за неуместен коментар