Уязвимостта в ChatGPT „беше коригирана бързо“, коментира Кришнан. „Въпросът обаче е, че тези софтуерни системи с изкуствен интелект са сложни и изградени върху други софтуерни компоненти, някои от които са с отворен код, и включват уязвимости, които могат да бъдат експлоатирани“, допълва той. Подобни пропуски са присъщи на големите езикови модели, посочва Ирина Райку, директор на програмата за интернет етика към Центъра за приложна етика Markkula към Университета Санта Клара.
Притесненията за поверителността са достатъчно големи, че няколко компании ограничиха или забраниха използването на AI чатботове от служителите им на работа. „Ако големите компании са загрижени за поверителността си, ако не са сигурни какво се случва с техните данни, това ни казва, че трябва да бъдем предпазливи, когато споделяме нещо лично“, казва Райку.
Няма много какво да се направи за това, в което са се превърнали вече моделите на чатботовете, коментира Райку, „но защо рискувате личната ви информация да излезе там, като въвеждате нови данни като тези в модела“.
Просто не го правете
Създателите на чатботове са предприели някои стъпки за защита на поверителността на потребителите. Например потребителите могат да изключат способността на ChatGPT да съхранява тяхната история на чата за неопределено време чрез силно видимия превключвател на началната страница. Това не е сигурна защита срещу хакери – сайтът казва, че ще съхранява новите чатове на потребителите, които изберат тази опция, за 30 дни, но ясно посочва, че чатовете няма да бъдат използвани за обучение на модела.
Bard изисква потребителите да влязат в Bard.Google.com, а след това да изпълнят няколко стъпки, за да изтрият цялата активност в чата по подразбиране. Потребителите на Bing могат да отворят уебстраницата на чатбота, да видят хронологията на търсенията от дясната страна на страницата, след което да изтрият отделните чатове, които искат да бъдат премахнати, посочва говорител на Microsoft. „В момента обаче потребителите не могат да деактивират историята на чатовете“.
Най-добрият начин потребителите да защитят себе си, според експертите, е да избягват споделянето на лична информация с инструментите с генеративен изкуствен интелект и да търсят определени предупредителни знаци, когато разговарят с който и да е AI. Някои от тези знаци включват използване на чатбот, който няма съобщение за поверителността. „Това ви казва, че нужното управление не е достатъчно добро, колкото трябва да бъде“, коментира Доминик Шелтън Лайпциг, партньор по поверителността и киберсигурността в адвокатската кантора Mayer Brown.
Друг е когато чатботът поиска повече лична информация, отколкото е разумно необходимо. „Понякога, за да влезете в акаунт, трябва да споделите номера на акаунта или парола и да отговорите на някои лични въпроси и това не е необичайно“, коментира Шелтън Лайпциг. „Да бъдеш помолен да споделиш номера на социалната си осигуровка е нещо лично. Недейте“, казва Лайпциг.
Тя също така казва, че е неразумно да обсъждате нещо лично с чатбот, за който никога не сте чували, тъй като зад цялата система може да стоят зложелатели.
Райку от Университета Санта Клара предупреждава да не се въвеждат специфични здравословни състояни или финансова информация в чатбот за обща употреба, тъй като повечето компании за чатботове са категорични в условията на услугите си, че служители могат да четат някои разговори. „Струва ли си риска вашата информация да излезе наяве, когато отговорът, който генеративният изкуствен интелект връща, може така или иначе да е неточен? Вероятно не“, казва Райку.
Цитирайки риска от хакери, Кришнан предупреждава хората да помислят два пъти, преди да използват функция на Bard на Google, която позволява всичките ви имейли да бъдат прочетени и обработени от инструмента, така че той да разбира стила и тона ви на писане.
В крайна сметка това, което въвеждате в чатбота, изисква поемането на лиск и нивото на комфорт на всеки ще бъде различно. Експертите казват, че трябва поне да проверите отново условията на услугата и политиките за поверителност на чатбота, за да разберете как ще бъдат използвани вашите данни.