IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

По-умните машини могат да създадат по-глупави хора

Вълнуващата и впечатляваща употреба на нови, мощни модели с изкуствен интелект би могла да нанесе щети на хората и обществото, ако липсва контрол

10:42 | 18.10.22 г.
Автор - снимка
Създател
Автор - снимка
Редактор
Снимка: Bloomberg
Снимка: Bloomberg

Когато един от старши изследователите на Google попита LaMDA (езиков модел за диалогови приложения – бел. прев.) чатбота на компанията дали е „философско зомби“ (проявяващо човешко поведение, без да има никакви вътрешен живот, съзнание или чувства), той отговори: „Разбира се, че не“. Неубеден, Блез Агуера и Аркас попита чатбота с изкуствен интелект как може да знае, че това е вярно. „Ще трябва да повярваш на думата ми. Вие също не можете да „докажете“, че не сте философско зомби“, отговори LaMDA.

Нашите машини стават по-умни - и по-нахакани - с удивителна и обезпокоителна скорост, пише редакторът за иновациите във Financial Times Джон Торнхил. LaMDA е един от новото поколение големи езикови, или фундаментални, модели, които използват техники за машинно обучение, за да идентифицират модели на думи в огромни набори от данни и автоматично ги връщат при поискване. Те работят като бързи функции за автоматично попълване, но без инстинктивни или придобити предпочитания, без памет и без чувство за история или идентичност. „LaMDA всъщност е едно будалкане, ако използвам груб (макар и човешки) термин“, пише Агуера и Аркас.

Когато OpenAI, базирана в Сан Франциско изследователска компания, стартира един от първите фундаментални модели (наречен GPT-3) през 2020 г., той изуми много потребители със способността си да генерира купища правдоподобен текст със забележителна скорост. Оттогава подобни модели станаха по-големи и по-мощни, разширявайки се от текст до компютърен код, изображения и видео. Те също така се пренасят от защитените изследователски среди в реалния свят и все повече се използват в маркетинга, финансите, научните изследвания и здравеопазването. Критичният въпрос е колко строго трябва да се контролират тези технологични инструменти. Рискът е, че по-умните машини могат да направят хората по-глупави.

Положителните комерсиални употреби на технологията са подчертани от Кунле Олукотун, професор от Станфордския университет и съосновател на SambaNova Systems, стартираща компания от Силициевата долина, която помага на клиентите да внедряват изкуствен интелект. „Скоростта на иновациите и размерът на моделите се увеличава драстично“, казва той. „Точно когато си помислихте, че достигаме границите си, хората измислят нови трикове.“

Тези нови модели не само могат да генерират текст и изображения, но и да ги интерпретират. Това позволява на една и съща система да се учи в различни контексти и да се справя с множество задачи. Например унгарската банка OTP работи с правителството и SambaNova за внедряване на базирани на изкуствен интелект услуги в целия си бизнес. Банката има за цел да използва технологията, за да добави автоматизирани агенти в своите кол центрове, да персонализира услугите на своите 17 милиона клиенти и да рационализира вътрешните си процеси чрез анализиране на документи. „Никой не знае как ще изглежда банкирането след 10 години или как ще изглежда технологията. Но аз съм 100 процента сигурен, че изкуственият интелект ще играе ключова роля“, посочва Питър Чани, главен дигитален директор на OTP.

Някои от компаниите, които са разработили мощни фундаментални модели, като Google, Microsoft и OpenAI, ограничават достъпа до технологията до познати потребители. Но други, включително Meta и EleutherAI, я споделят с по-широка клиентска база. Съществува колизия между позволяването на външни експерти да помогнат за откриването на недостатъци и пристрастия и предотвратяването на по-зловеща употреба от безскрупулни хора.

Фундаменталните модели може да са „наистина вълнуващи и впечатляващи“, но са отворени за злоупотреба, защото са „проектирани да бъдат отклоняващи се“, коментира Кариса Велиз, доцент в Института по етика в изкуствения интелект към Оксфордския университет. Ако се обучават чрез набори от исторически некоректни данни, фундаменталните модели могат да дадат вредни резултати. Те могат да застрашат поверителността, като извличат цифрови подробности за дадено лице и да използват ботове, за да променят онлайн персонажите. Те могат също така да обезценят истината, като наводнят интернет с фалшива информация.

Велиз прави аналогия с финансовите системи: „Можем да се доверим на парите, стига да няма прекалено много фалшификати. Но ако има повече фалшиви пари, отколкото истински, системата се разпада. Ние създаваме инструменти и системи, които не можем да контролираме.“ Това е аргумент за прилагането на рандомизирани контролни изпитания на фундаменталните модели преди пускане, казва тя, точно както за фармацевтичните лекарства.

Станфордският институт за изкуствен интелект, ориентиран към човека, натиска за създаването на експертен съвет, който да определя нормите в тази област, да споделя най-добрите практики и да съгласува стандартизирани правила за достъп преди да бъдат пуснати фундаменталните модели. Демокрацията касае не само прозрачността и откритостта. Става въпрос и за институционалния дизайн за колективно управление. Ние сме, както казва Роб Райх от Станфордския институт, в надпревара между „разрушението и демокрацията“.

Докато не бъде въведено ефективно колективно управление, което да контролира използването на фундаменталните модели, далеч не е ясно, че демокрацията ще победи.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 10:50 | 18.10.22 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

Финанси виж още