IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Колко голяма заплаха е изкуственият интелект за човечеството ?

Дори технологичните лидери не могат да постигнат съгласие по този въпрос

12:54 | 06.09.23 г. 2
Автор - снимка
Създател
Снимка: Pexels.com
Снимка: Pexels.com

Някои в областта твърдят, че има парадоксална полза за компаниите с изкуствен интелект да наблягат на x-риска от системите, защото това създава усещането, че тяхната технология е изключително сложна.

„Очевидно е, че тези момчета се възползват от шума, който все още се подхранва“, каза Даниел Шьонбергер, бивш адвокат на Google, който работи върху списъка ѝ с AI принципи през 2018 г., а сега е във Web3 Foundation. Той коментира, че политиците трябва да се съсредоточат повече върху краткосрочните рискове - като изкуствен интелект, който прави по-евтино провеждането на кампании за разпространение на невярна и подвеждаща информация или концентрирането на повече власт в Силициевата долина.

„Съществува риск от доминиране, от това Big Tech да се превърне в Big AI“, казва Шьонбергер.

Лидерите на компании за изкуствен интелект, притеснени от екзистенциалните рискове, казват, че опасенията им са истински, а не са нещо измислено. „Да кажем: „О, правителствата са безнадеждни, така че призивът за регулиране е някакъв вид 4D шахматен ход“ – просто не мислим така. Това е екзистенциален риск“, каза през юни Алтман от OpenAI.

Очакващите апокалипсис не казват, че изкуственият интелект непременно ще се въздигне като Скайнет във филмите за Терминатор, за да унищожи хората. Някои се притесняват, че системите с изкуствен интелект могат да се окажат със скрити стремежи за търсене на власт, неволно да навредят на хората, докато изпълняват нашите нареждания, или просто да изпреварят хората и да поемат контрола върху съдбата ни. Проучванията в тази общност се фокусират до голяма степен върху това, което се нарича привеждане в съответствие – как да се уверим, че утрешните компютърни умове имат цели, синхронизирани с нашите.

Напротив, специалистите по етиката и справедливостта на AI са загрижени за това как инструментите, случайно или умишлено, експлоатират работници и задълбочават неравенствата за милиони хора. Те искат технологичните компании и регулаторите да прилагат стандарти за обучение и техники за намаляване на тази заплаха.

Разнообразието на работната сила е особено спорен въпрос. Специалистите по етиката на AI показаха как системите, обучени с исторически данни, могат да вложат стара дискриминация в бъдещи ключови решения, включително за финансиране за жилище, наеми или наказателни присъди. Изследванията също така показват, че генеративните AI системи могат да създават изображения, белязани от предубеждения. Те също така твърдят, че липсата на разнообразие сред изследователите на AI може да ги заслепи за въздействието, което технологията може да има върху цветнокожите и жените.

Конфликтът предизвиква искри от години. През 2015 г. някои академици и учени се събраха да обсъдят рисковете от изкуствения интелект в кулоарите на конференция, която се проведе в кампуса на Google. Едната страна се изправи срещу привържениците на екзистенциалния риск, твърдейки, че фокусът трябва да бъде върху днешните вреди, включително пристрастията.

Онези, които се опасяват от заличаването на човечеството, отвърнаха, че бъдещето на хората е в баланса, а никой не трябва да се притеснява за това, че изкуственият интелект води до разлика от четвърт пункт върху ипотека, коментира Стивън Вебер, професор в Калифорнийския университет в Бъркли.

„Почти си помислих, че ще се стигне до физическа саморазправа на академична среща“, припомня си Вебер.

Има и усилия за преодоляване на разделението. Някои изследователи, занимаващи се с етика, казват, че не отхвърлят напълно екзистенциалния риск, но просто смятат, че той трябва да бъде решен като част от по-добре дефинирани проблеми, които съществуват днес. Някои от по-крайните твърдят, че пътят към катастрофата може да дойде от опасения, подчертани от общността на етиците, като например индустриализирана дезинформация, която сваля правителства или започва войни. И двете страни се интересуват от възможността да пробият черната кутия на начина, по който изкуственият интелект мисли.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 12:54 | 06.09.23 г.
Най-четени новини
Още от Новини и анализи виж още

Коментари

2
rate up comment 7 rate down comment 0
evlogi
преди 11 месеца
И друг път съм го писал: каквато и заплаха да е изкуственият интелект, бледнее пред заплахата от естествената простотия..
отговор Сигнализирай за неуместен коментар
1
rate up comment 4 rate down comment 2
cyclop
преди 11 месеца
"такива системи могат да придобият свръхчовешки интелект"...дайте да изчакаме...първо да придобият какъвто и да е интелект? Това, че интернет търсачката е станала много мощна и може да компилира резултатите бързо и адекватно, не значи "интелект"... Та ако ще да ти дава резултатите от първо лице.
отговор Сигнализирай за неуместен коментар
Финанси виж още