IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec

Как Вашингтон се опитва да регулира изкуствения интелект?

Въпросът остава особено спорен и решенията няма да бъдат лесни

22:05 | 15.05.23 г.
Автор - снимка
Създател
Снимка: Gabby Jones/Bloomberg
Снимка: Gabby Jones/Bloomberg

И въпреки че мнозина, като лидера на мнозинството в Сената Чък Шумър, са решени да се справят с проблемите на изкуствения интелект по двупартиен начин, факт е, че Конгресът е поляризиран, президентските избори са следващата година, а властите се занимават и с други големи проблеми, като повишаване на тавана на дълга.

Предложеният от Шумър план изисква независими експерти да тестват нови технологии с ИИ преди пускането им. Той също така призовава за прозрачност и предоставяне на данни на правителството, от които то се нуждае, за да се избегне нанасянето на вреди.

Правителствено микроуправление

Подходът, базиран на риска, означава, че изкуственият интелект, използват за диагностициране на рак например, ще бъде подложен на щателни проверки от Администрацията по храните и лекарствата, докато ИИ за развлечение, няма да бъде регулиран. Европейският съюз вече се насочва към приемането на подобни правила.

Но фокусът върху риска изглежда недостатъчен за сенатора демократ Майкъл Бенет, който представи законопроект, призоваващ за създаването на правителствена работна група за ИИ. По думите му той се застъпва за „основан на ценности подход“ за приоритизиране на личния живот, гражданските свободи и права.

Базираните на риска правила може да са твърде строги и да не уловят опасности като използването на ИИ за препоръчване на видеоклипове, които насърчават идеята за превъзходството на бялата раса, допълва сътрудник на Бенет.

Властите също така са обсъдили как най-добре да гарантират, че изкуственият интелект не се използва за расова дискриминация, например при решаването кой да получи ипотека с ниска лихва, коментира източник, който следи дискусиите в Конгреса и е пожелал да остане анонимен.

В OpenAI също се обмисля по-широк надзор.

Калън О‘Кийф, изследовател в OpenAI, през април предложи създаването на агенция, която да наложи на компаниите да получават лицензи, преди да обучават мощни модели с изкуствен интелект или да управляват центровете за данни, които помагат на технологията. Според О‘Кийф агенцията може да бъде наречена Служба по безопасност на изкуствения интелект и сигурност на инфраструктурата (OASIS).

Попитан за предложението, главният технологичен директор на OpenAI Мира Мурато коментира, че един надежден орган може да „държи разработчиците отговорни“ за стандартите за безопасност. Но по-важно от механиката е съгласието „какви са стандартите, какви са рисковете, които се опитвате да предотвратите“.

Някои републиканци обаче може да се противопоставят на каквато и да била регулация на изкуствения интелект.

„Трябва да внимаваме регулаторните предложения за изкуствен интелект да не се превърнат в механизъм за държавно микроуправление на компютърен код като търсачки и алгоритми“, коментира сенатор републиканец пред Ройтерс.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 22:05 | 15.05.23 г.
Специални проекти виж още
Още от Новини и анализи виж още

Коментари

Финанси виж още