fallback

Експерт: Deepfake ще доведе до появата на фалшиви медицински досиета

Тепърва ще се появяват институции на държавно ниво, които да следят за подобен тип материали, смята Петко Карамочев

16:44 | 16.02.24 г.

Технологията deepfake ще доведе и до създаването на фалшиви медицински досиета, фалшиви резултати от скенери и рентгенови снимки. Това каза Петко Карамочев, основател на INDUSTRIA.tech, в предаването „Бизнес старт“ на Bloomberg TV Bulgaria. По думите му тук идва и ролята на непроменимите бази данни, които не могат да бъдат хакнати или променени, като може би оттам ще трябва да търсим информация.

Според Карамочев предстои да видим фалшификати в много различни сфери на живота, а скоро ще има и фалшификации на стила на писане на известни автори.

Голямото предизвикателство от развитието на deepfake технологията е пред публичните личности, които ще трябва да свикнат, че все по-често тя ще се използва, каза още експертът. Според него на предстоящите избори в САЩ най-вероятно ще се наблюдава засилено използване на технологията.  

Проблемът идва, ако обществеността не може да различи истината от фалшификата, като има нужда от осведомителна кампания, която да обясни на хората как работи deepfake, каза още Карамочев.

По-думите му Европейският съюз е реагирал рано, работейки по законодателство за изкуствения интелект (AI), в което се категоризират видовете AI според риска, който създават за обществото. В този закон ЕС обръща внимание и на deepfake съдържанието, но Карамочев обясни, че все пак индустрията изпреварва регулаторите.

„Социалните мрежи печелят от deepfake съдържанието. Ако те нямат много посетители, ако нямат шокиращо съдържание, което да стигне до стотици милиони души, те няма да могат да съществуват“, каза още експертът, но допълни, че е необходима регулация.

„С появата на Gemini – новият продукт, който обединява няколко AI продукта на Google, те обявиха още в самото начало, че ще приложат всички необходими практики, за да регулират и да се саморегулират, когато става въпрос за показване на съдържание, за да не могат техните протоколи, алгоритми и модели да бъдат използвани за създаване на подобно съдържание. Роля имат и масовите медии, и академичната общност, и гражданското общество, да може да филтрира и да си създаде критично мислене. Ние трябва да го правим особено сред нашите деца – да го създадем, за да могат да не вярват на всичко, което виждат, защото в момента е изключително лесно да генерираш каквото си поискаш“, каза той.

Тепърва ще се появяват институции на държавно ниво, които да следят за подобен тип материали. Според специалиста и в България до 1-2 г. ще заработи специално AI бюро, което да се занимава с такива въпроси.

Карамочев препоръча да се използват няколко източника за проверка на информация и да не се вярва на всичко в интернет.

Целия коментар гледайте във видеото на Bloomberg TV Bulgaria.

Всички гости на предаването „Бизнес старт“ може да намерите тук.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 16:44 | 16.02.24 г.
fallback
Още от Софтуер виж още