С приближаването на изборите за президент в САЩ напрежението около генеративния изкуствен интелект започва да расте, особено по отношение на използването на дийпфейк, за да повлияе на предпочитанията и поведението на избирателите, пише Fast Company.
Не само политическата сфера обаче е в бойна готовност. Всички – от краткосрочни работници до известни личности – говорят за потенциалните вреди на генеративния изкуствен интелект (AI), поставяйки под въпрос дали ежедневните потребители ще могат да различават генерираното от AI съдържание от автентичното. Макар че генеративният AI носи потенциала да направи света по-добър, технологията се използва, за да нанася вреди – от това да се въплъщава в политици, известни лица и бизнес лидери до това да влияе на избори и други.
Заплахата дийпфейк
През април 2023 г. дийпфейк изображение на папата в бяло пухено палто до глезените стана известно навсякъде. Папата наскоро адресира този въпрос в посланието си за 58-ия Световен ден на социалните комуникации, отбелязвайки: "Трябва да обмислим дългогодишния проблем с дезинформацията под формата на фалшиви новини, които днес може да използват дийпфейк, т.е. създаването и разпространението на образи, които изглеждат напълно правдоподобни, но са фалшиви".
През февруари CNN съобщи, че финансов служител на неназована мултинационална компания в Хонконг е бил подмамен в сложна измама, захранена чрез дийпфейк видео. Измамниците подлъгали служителя, маскирайки се като истински хора в компанията, включително главния финансов директор, по време на видео конферентен разговор. След това служителят превел 200 млн. хонконгски долара (25,6 млн. щатски долара) на измамниците в това, което полицията определя като „първи по рода си случай“.
Известните личности също не са имунизирани от тази атака на лоши актьори, възползващи се от дийпфейк възможностите. Миналия месец например генерирани с AI изображения на попзвездата Тейлър Суифт се завъртяха в Х (Twitter) и си проправиха път към други социални мрежи като Telegram и Facebook.
Това не е първият път, в който се появява дийпфейк. През 2020 г. The Atlantic съобщи, че „манипулираното видео на противника си“, което тогавашният президент Доналд Тръмп използва, „е тест на границите“. Бившият президент Барак Обама бе изобразен, изричащ думи, които никога не е казвал в генерирано от AI дийпфейк видео от 2018 г.
Сега обаче е голяма изборна година, като най-големият брой избиратели по света в историята ще се насочат към урните в 64 държави, представлявайки 49% от световното население, посочва Time. Предстоящите избори поставиха началото на дигитално бойно поле, където границите между реалността и манипулацията все повече се размиват.
Лекотата, с която може да бъде разпространявана фалшивата информация, в комбинация със същността на социалните медии бързо да превръщат нещо в хит, създава перфектната рецепта за хаос. „В социалните медии много пъти хората не четат нещо повече от заглавието“, казва Стюарт Маклюър, главен изпълнителен директор на компанията за изкуствен интелект Qwiet AI. “Това може да създаде перфектната буря, тъй като хората просто ще реагират, преди да разберат дали нещо е истинско, или не“.
Рафи Менделсон, вицепрезидент по маркетинга на Cyabra – компанията за разузнаване на социалните заплахи, която Х нае, за да реши проблемите с фалшивите ботове – казва, че „тези инструменти демократизираха способността на злонамерени участници да направят своите дейности, които влияят на дейността, и техните кампании за дезинформация много по-правдоподобни и ефективни”. В битката срещу фалшивите ботове и дийпфейк „в момента виждаме повратна точка“, казва Менделсон.
Ролята на отговорния AI
Дебатите относно борбата с рисковете от генеративния AI са непълни, ако не се обърне внимание на решаващата роля на отговорния AI. Силата, притежавана от изкуствения интелект, като всеки страхотен инструмент, изисква ангажираност към отговорна употреба. Определянето на това какво точно е отговорен AI е сложна задача, но е от първостепенно значение, за да се гарантира, че технологията служи на човечеството, а не го подкопава.
„Проверяваният AI може да е най-добрата ни надежда да разберем как се изграждат моделите и какви отговори ще предоставя. Етичният AI също може да се възприеме като мярка за здравословен AI. Всички тези структури работят, за да разберат какво е влязло в изграждането на моделите, към които задаваме въпроси, и ни подсказват техните пристрастия“, казва Маклюър.
„Първо, изключително важно е да разберем уникалните рискове и уязвимости, донесени от AI“, казва той. „Второ, трябва да укрепите защитата във всички области, било то персонал, процеси или технология, за да смекчите тези нови потенциални заплахи“.
Макар че има експерти като Майк Леоне, главен анализатор в Enterprise Strategy Group на TechTarget, които твърдят, че 2024 г. ще бъде годината на отговорния AI, Менделсон предупреждава, че „ще продължим да наблюдаваме тази тенденция, защото много хора все още са готови да използват тези инструменти за лична изгода, а много хора дори още не са успели да ги използват. Това е сериозна заплаха за личната марка и сигурност на ниво, което дори не можем да си представим“.
Ще е нужен многостранен подход за ефективна борба с дезинформацията и заплахата от дийпфейк. И Маклюър, и Менделсон подчертават необходимостта от правила, разпоредби и международно сътрудничество между технологичните компании и правителствата. Маклюър се застъпва за мисленето тип „проверете, преди да се доверите“ и подчертава значението на технологиите, правните рамки и медийната грамотност в борбата с тези заплахи. Менделсон подчертава значението на разбирането на възможностите и рисковете, свързани с AI, добавяйки, че „укрепването на защитите и фокусирането върху отговорното използване на AI става наложително, за да се предотврати попадането на технологията в неподходящи ръце“.
Битката срещу дийпфейк и измамни ботове не се ограничава до един сектор: тя прониква в политическия, социален и културен пейзаж. Залозите са високи, с потенциал да нарушат демократичните процеси, да опетнят личната репутация и да посеят раздор в обществото. Докато се борим със заплахите, породени от лоши актьори с нови възможности, породени от AI, отговорните AI практики, правните рамки и технологичните иновации се очертават като компас, който да ни води към едно по-безопасно AI бъдеще. Преследвайки напредъак трябва да използваме силата на AI отговорно, като гарантираме, че той остава сила за положителна трансформация, а не инструмент за манипулация, измама и унищожение.
Законодателни действия в САЩ
Има няколко законопроекта в Капитолия, които, поне на теория, могат да помогнат за спирането на разпространението на генерирани от AI дийпфейк. В началото на януари бе представен Законът за забрана на фалшиви реплики и неразрешени копия с изкуствен интелект (No AI FRAUD). Двупартийният проект иска да установи правна рамка, с който да направи незаконно създаването на „цифрово изображение“ на всеки един човек без разрешението му.
Джаксън Парът, основател и главен изпълнителен директор на Presspool.ai, казва, че ако законът бъде приет, той ще създаде система, която защитава хората от генериран с AI дийпфейк и фалшификати, които използват техни изображения или глас без разрешение. „В зависимост от случая глобите може да започнат от 5000 или 50 хил. долара, плюс реални вреди, както и наказателни щети и адвокатски хонорари“, казва той.
Друг проектозакон предвижда „федерално гражданско средство за защита“, което позволява на жертвите на дийпфейк да съдят създателите на изображенията за щети. Съществува и проектът на Закона БЕЗ ФАЛШИФИКАЦИИ (NO FAKES Act), представен в Камарата през октомври миналата година, който има за цел да защити гласовете и визуалните прилики на артисти от реплики, генерирани от AI.
Дали тези проекти обаче имат шанса да се превърнат в реални закони е друг въпрос.
„Законодателството трябва да премине през двете камари на Конгреса и да получи подписа на президента“, казва Рана Гуджрал, главен изпълнителен директор на компанията за когнитивен изкуствен интелект Behavioral Signals. „Има двупартийна подкрепа за справяне с вредите, причинени от дийпфейк, но законодателният процес може да бъде бавен и да подлежи на преговори и изменения“.
Както отбелязва Гуджрал, едно голямо препятствие може да са дебатите за свободата на словото и техническите предизвикателства при прилагането на такива закони. Друго предизвикателство е скоростта на технологичния напредък, който вероятно ще изпревари законодателния процес.
От друга страна, Парът казва, че предвид факта, че почти 20 щата вече са приели такива закони, вероятно още щати ще ги последват и Конгресът също да предприеме действия. „Заслужава да се отбележи, че законопроектът NO AI FRAUD е съвместно подкрепен в Камарата от представители и на двете големи политически партии. Също така скорошно проучване на YouGov разкрива, че разпространението на подвеждащ видео и аудио дийпфейк е единствената употреба на AI, за която има най-голяма вероятност (60%) американците да са много загрижени“.
Той обаче също така отбелязва, че някои противници на сегашните определения в Закона No AI FRAUD са загрижени, че той е твърде широк по обхват и че би поставил извън закона определени форми на политическа сатира – с други думи, ще наруши конституционните права на Първата поправка.
„Ако има достатъчно политически отпор, формиран по тази линия“, казва Парът, „законодателите в Конгреса вероятно биха могли да намерят компромис, който да постигне баланс между защитата срещу злонамерен дийпфейк, като същевременно гарантира традиционната свобода на словото“.