Където и да отидат новите технологии, безскрупулните ги следват по петите. Еуфорията около генеративния изкуствен интелект привлече измамници, които не просто го използват като част от своите схеми, но и в рекламите си в социалните мрежи. По-лошото е, че понякога целта са по-възрастни и финансово уязвими хора, пише Парми Олсън за Bloomberg.
Федералната търговска комисия (FTC) на Съединените щати, която следи за измамни рекламни практики, през последната година наблюдава скок в оплакванията за наличието на реклами, които или използват изкуствен интелект (AI), или твърдят, че го използват, за да примамват хора в измами, сочи документ, получен от Bloomberg Opinion след искане по Закона за свободата на информацията.
Поне една трета от оплакванията са за реклами, забелязани в социални мрежи като Twitter (вече X), Facebook и YouTube, които сега са изправени пред нов вид противник в дезинформацията сред собствените си рекламодатели.
Има само две оплаквания до FTC, свързани с реклами, в които AI се споменава, през годината до февруари 2023 г. Този брой обаче е нараснал до 14 през годината до февруари 2024 г., съвпадайки с бума на инструментите с генеративен изкуствен интелект, които фирмите използват.
На пръв поглед тези данни може да не предполагат епидемичен проблем, но като се има предвид, че повечето редовни потребители на социални мрежи са насърчавани да подават оплаквания първо към платформи като Facebook и YouTube, а не към водещия регулатор на онлайн рекламата в САЩ, те все пак отразяват по-значителното увеличение на това, което хората вероятно виждат и това, което може да е върхът на айсберга. (Всички оплаквания, включени тук, са направени директно към FTC).
Човек на около 30 години от Лос Анджелис, например, е казал на FTC, че е бил подмамен да преведе 7000 долара на фалшив уебсайт на Tesla, след като е гледал видео в YouTube, което включва дълбока фалшификация на Илон Мъск. В клипа фалшивият Мъск казва, че Tesla „ще увои парите ви за кратък период от време“, като работи с компания за криптовалути. Но жалбоподателят от Лос Анджелис така и не получава парите си обратно и твърди, че е загубил спестяванията си. „Това беше всичко, което имах“, казва той в жалбата.
Друг човек от Флорида посочва, че непрекъснато е виждал дълбоко фалшивицирани реклами в YouTube, които претендират да показват Брад Гарлингхаус, главният изпълнителен директор на Ripple, и обещават „удвояване на парите ви“, разкрива жалбата му. YouTube „напълно игнорира нашите опасения и тези реклами все още се показват“, казва още той.
„Наясно сме с възникващата тенденция за дълбоко фалшифицирани реклами, включващи неистински знаменитости или отношения с тях“, коментира източник от Alphabet, компанията майка на YouTube. „Също така знаем, че тези реклами могат понякога да бъдат използвани за измама на потребителите. Ние инвестираме много в откриването и прилагането на действия срещу тези дълбоко фалшифицирани реклами и недоброжелателите, които стоят зад тях“.
През януари компанията заяви, че е „наясно“, че има реклами, използващи дълбока фалшификация на известни личности като Мъск за разпространение на измами, и е свалила 1000 видеоклипа, които ги рекламират, сочи доклад във 404 Media.
Най-новите оплаквания показват, че почти по същия начин, по който фирмите се се надпреварват да споменават AI в своите услуги и продукти, измамниците също го използват като вид примамка. Няколко от миналогодишните оплаквания към Федералната търговска комисия са били насочени към реклами в платформи на Meta. Един човек от Англия, например, е стигнал до страница във Facebook на компания, която твърди, че има AI платформа за търговия. След като потребителят си прави акаунт, той прави депозит от 200 долара и получава среща с финансов съветник. „След това щеше да ме обучи допълнително относно AI търговията“, гласи жалбата му. „Съветникът“ в крайна сметка го кара да плати такса, за да изтегли депозита си, която той не е може да си позволи.
Друг човек във Филипините сигнализира за видео реклама в Reels на Facebook, в която измамници твърдят, че използват AI, за да помогнат на хората да спечелят до 1500 долара на ден като работят на непълно работно време. А в друга платформа на Meta – Instagram – потребител от Австралия казва, че е видял съобщение за платформа за търговия с изкуствен интелект, разработена от Мъск, която може „да помогне на обикновените хора да изкарват хиляди долари чрез търговия с криптовалути“. След като инвестира 250 долара, този човек се оказва неспособен да изтегли обратно парите си. „Те продължаваха да казват, че „Отдел Финанси трябва да го одобрят“, казва той в жалбата си. „Това е последното, което чух от тях“.
Говорителка на Meta Platforms твърди, че компанията работи „в тясно сътрудничество с правоприлагащите органи, за да подпомогне разследванията и да държи измамниците извън нашите платформи“, и че различните приложения на технологичния гигант „имат системи за блокиране на измами“.
Измамниците използват AI и по други начини. Един ветеран от американския щат Джорджия се оплаква, че е посетил сайт за запознанства за възрастни хора и е разбрал, че много от потенциалните партньори, с които разговарял, са ботове.
Ботовете проникват в приложения и сайтове за запознанства от години, но генеративният изкуствен интелект напоследък им помага да звучат много по-реалистично. В някои сайтове те насърчават потребителите да изпращат пари за виртуални награди за други в платформата или за повече кредити за чат. „Бях глупав и повярвах“, разказва ветеранът в жалбата си.
Социалните мрежи прекараха години в битка с експлоататорите на техните платформи, включителнот тези, които се опитват да разпространяват пропаганда и теории на конспирацията. Тази нова порода измамници обаче представлява уникално предизвикателство. Инструментите с изкуствен интелект позволяват на зложелателите да провеждат мащабни кампании, което означава, че самият обем на съдържанието от тях може да надделее над методите за откриването им.
Междувременно, когато се сблъскат с нови и модерни технологии, бизнесът и потребителите трябва да си припомнят поговорката: Ако изглежда твърде хубаво, за да е истина, най-вероятно не е.