„Предимно те съобщават, че първата цел на изкуствения интелект е „да премахне фалшивите положителни резултати“, доколкото едно от основните предизвикателства сред анализаторите в сферата на сигурността е филтрирането на сигнала от шума в много големи масиви от данни“, казва Драйвър. „Изкуственият интелект може да го свие до разумни размери, давайки много по-точни резултати. В резултат на това анализаторите могат да работят по-интелигентно и по-бързо, за да се справят с кибератаките“.
Като цяло изкуственият интелект се използва за по-точно откриване на нападения, а след това за приоритизиране на отговорите въз основа на риска, казва Драйвър. Освен това позволява автоматизирани и полуавтоматизирани действия при атаки, а на последно място осигурява по-точно моделиране за прогнозиране на бъдещи опити за пробиви. „Всичко това не премахва задължително анализаторите от играта, но прави работата им по-гъвкава и по-точна, когато са изправени пред киберзаплахи“, допълва той.
Засилване на киберзаплахите
От друга страна, зложелателите могат да използват изкуствения интелект по няколко начина. „Например изкуственият интелект може да се ползва за идентифициране на модели на компютърни системи, които разкриват слабости в софтуера или програмите за сигурност, като по този начин позволяват на хакерите да се възползват от тези новооткрити уязвимости“, коментира Финч.
Комбинирайки ги с открадната лична информация или събрани данни с отворен код, като публикациите в социални мрежи, киберпрестъпниците могат да използват изкуствения интелект, за да създават голям брой фишинг имейли. През тях могат да разпространяват зловреден софуер или да събират ценна информация.
„Експерите по сигурността отбелязват, че генерираните от изкуствен интелект фишинг имейли всъщност имат по-висок процент на отваряне, подвеждайки потенциалните жертви да кликнат на тях и по този начин генерират атаки, в сравнение с ръчно създадените фишинг имейли“, допълва Финч. „Изкуственият интелект може да се използва и за проектиране на зловреден софтуер, който постоянно се променя, за да избягва защитата на автоматизираните защитни инструменти“.
Постоянно изменящият се зловреден софтуер може да съдейства на хакерите да избегнат статичните системи за защита. По същия начин ползващ изкуствен интелект зловреден софтуер може да седи в системата, да събира данни и да наблюдава поведението на потребителите, докато не стане готов да стартира друга фаза от атаката, или да изпрати събраната информация с относително нисък риск да бъде открит. Това отчасти е причината компаниите да се насочват към модел на „нулево доверие“, при който защитите са настроени постоянно да инспектират мрежовия трафик и приложенията.
Но Финч споделя: „Като се има предвид икономиката на кибератаките – обикновено е по-лесно и по-евтино да се предприемат атаки, отколкото да се изграждат ефективни защити – бих казал, че изкуственият интелект като цяло ще бъде по-скоро вреден, отколкото полезен. Имайте предвид обаче факта, че наистина добрият изкуствен интелект е труден за разработка и изисква много специално обучени хора. Масовия тип престъпници няма достъп до най-големите умове в изкуствения интелект в света“.