fallback

Заплахата от изкуствения интелект може да по-спешна от тази от климатичните промени

Един от ветераните в развитието на технологията твърди, че AI може да носи екзистенциален риск за човечеството

09:55 | 06.05.23 г. 2
Автор - снимка
Създател

Изкуственият интелект може да представлява „по-спешна“ заплаха за човечеството от изменението на климата, каза пионерът в изкуствения интелект (AI) Джефри Хинтън в интервю за Ройтерс.

Джефри Хинтън, известен като един от „кръстниците на AI”, наскоро обяви, че е напуснал Alphabet след десетилетие във фирмата, като каза, че иска да говори открито за рисковете от технологията, без това да засегне вече бившия му работодател.

Работата на Хинтън се счита за съществена за развитието на съвременните системи за изкуствен интелект. През 1986 г. той става съавтор на основополагащата статия "Learning representations by back-propagating errors", крайъгълен камък в развитието на невронните мрежи, които са в основата на AI технологията. През 2018 г. той беше удостоен с награда Тюринг като признание за изследователските му постижения.  

Но той е сред нарастващия брой технологични лидери, които публично изразяват притесненията си относно потенциалните заплахи, идващи от изкуствения интелект, ако машините станат по-интелигентни от хората и поемат контрол над планетата.

„Не бих искал да омаловажавам изменението на климата. Не бих искал да кажа да не се тревожите за климатичните промени. Това също е огромен риск“, коментира Хинтън. „Но мисля, че това може да се окаже по-спешно“.

„При изменението на климата е много лесно да се препоръча какво трябва да направите: просто трябва да спрете да изгаряте въглерод. Ако направите това, в крайна сметка нещата ще се оправят. При изкуствения интелект изобщо не е ясно какво трябва да направите“, допълва той.

Финансираната от Microsoft OpenAI даде начало на надпреварата в технологичното въоръжаване през ноември, когато чатботът ѝ ChatGPT стана публично достъпен. Скоро той се превърна в най-бързо развиващото се приложение в историята, достигайки 100 млн. месечни потребители само за два месеца.

През април главният изпълнителен директор на Twitter Илон Мъск се присъедини към хилядите, подписали отворено писмо, призоваващо за шестмесечна пауза в разработването на системи, по-мощни от наскоро пуснатия GPT-4 на OpenAI.

Подписалите включват главния изпълнителен директор на Stability AI Емад Мостаке, изследователи от DeepMind на Alphabet и други пионери в изкуствения интелект като Йошуа Бенджио и Стюарт Ръсел.

Въпреки че споделя загрижеността на подписалите, че изкуственият интелект може да се окаже екзистенциална заплаха за човечеството, той не е съгласен със спирането на проучванията.

„Това е напълно нереалистично“, казва той. „Аз съм в лагера, който смята, че това е екзистенциален риск и е достатъчно близо, че в момента да трябва да работим много усилено и да влагаме много ресурси, за да разберем какво можем да направим по въпроса“.

Европейския съюз отговори на писмото, подкрепено от Мъск, призовавайки президента на САЩ Джо Байдън да свика среща на върха заедно с председателя на Европейската комисия Урсула фон дер Лайен относно бъдещата посока на развитие на технологията. Миналата седмица властите в ЕС постигнаха съгласие за забележителен набор от предложения, насочени към генеративния AI, които ще принудят компании като OpenAI да разкрият какви материали, защитени с авторски права, са използвани за обучение на техните модели.

Междувременно Байдън проведе разговори с редица лидери на компании за изкуствен интелект, включително главния изпълнителен директор на Alphabet Сундар Пичай и главния изпълнителен директор на OpenAI Сам Алтман в Белия дом, обещавайки „откровена и конструктивна дискусия“ относно необходимостта на компаниите да бъдат по-прозрачни относно своите системи.

„Технологичните лидери разбират най-добре това и политиците трябва да бъдат включени“, посочва Хинтън. „Въпросът засяга всички ни, така че всички трябва да мислим за него“.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 09:55 | 06.05.23 г.
fallback
Още от Новини и анализи виж още