IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Д-р Пол Нилсен: Въпреки обещанията AI технологията не се развива толкова бързо

Експертът е оптимистичен за бъдещето и вярва, че хората управляват технологията, а не обратното

16:50 | 22.05.24 г.

Въпреки големите обещания по отношение на изкуствения интелект (AI) се вижда, че технологията не се развива толкова бързо. Това каза д-р Пол Нилсен, главен изпълнителен директор на Software Engineering Institute, Carnegie Mellon в САЩ, в предаването „Светът е бизнес“ на Bloomberg TV Bulgaria.  

„Системите за изкуствен интелект могат много добре да правят някои неща при определени условия, но не се справят така добре, както хората, в други условия. В момента те (системите за AI) не са умни колкото 10-годишно дете“, каза Нилсен. Според него хората се справят по-добре от машините с контекста – те могат да гледат голямата картина, докато компютрите не са добри в това. Той не смята, че светът е толкова близо до така наречената точка на сингулярност – когато компютрите станат „по-умни“ от хората.

Нилсен допълни, че изкуственият интелект е много добър в специфични области и въпроси. В момента има много ползи от технологията в някои сектори, но в други все още е нужна основната човешка роля, тъй като AI е инструмент, а не изпълнител. Едно от най-големите постижения би било достигането до общ интелект (common intelligence), но все още не сме на този етап, смята той.

Според Нилсен изкуственият интелект е универсално разпространена технология и не вярва, че държавите в бъдеще ще се разделят на такива, които притежават AI и такива, които не притежават.

По отношение на ползата от изкуствения интелект в киберсигурността, той посочи, че има и слаби места. В Software Engineering Institute разработват етичен изкуствен интелект, при който се цели технологията да няма пристрастие и да не вреди. Това е актуален проблем, защото AI има наследени пристрастия, заради набора от данни, с които се обучава, обясни Нилсен. По този начин може да постави в неизгодно положение дадени групи от обществото. Възможно е и сред данните, подбрани за обучаване на модела, умишлено да се подбират такива с дадени предразсъдъци, каза той. 

Институтът работи от 40 години, като една от основните им задачи е да развият системи, с които хората могат да реагират на кибератаките. Преди 10 години започва начинанието им с изкуствения интелект, като целят да се уверят, че данните използвани за обучение на моделите са свободни от пристрастия. В момента има сериозни опасения за влиянието на АИвърху демокрациите и обществата. Експертът обясни, че трябва хората да бъдат по-скептични към това, което виждат в киберпространството и да се намери начин да се разпознават заблудите.

Във военните системи виждаме употребата на изкуствения интелект, като там е нужна по-висока летва за използването му, тъй като те са предназначени да вредят, стана ясно от думите на Нилсен. Отговорността е върху инженерите да създават системи по етичен, отговорен и безопасен начин. Той обясни, че често в различни научно-фантастични произведения се представя потенциален бъдещ свят, но това зависи изцяло от хората, който имат силата да определят бъдещето си. Нилсен е оптимистичен за бъдещето и вярва, че хората управляват технологията, а не обратното.

Целия коментар гледайте във видеото на Bloomberg TV Bulgaria.

Всички гости на предаването „Светът е бизнес“ може да гледате тук.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 17:01 | 22.05.24 г.
Специални проекти виж още
Най-четени новини
Още от Софтуер виж още

Коментари

Финанси виж още