fallback

Евродепутатите одобриха новите правила за изкуствения интелект

Законът за изкуствения интелект обаче трябва да мине през още една институция, преди да бъде приет окончателно

18:21 | 13.03.24 г. 2

Европейският парламент одобри законодателния акт за изкуствения интелект в блока, с което зададе тон в международен план за регулация на горещата технология.

Евродепутатите дадоха 523 гласа „за“ и 46 гласа „против“ новите правила. „Въздържал се“ гласуваха 49 души.

Целта на новите правила е да защитават основните права, демокрацията, принципите на правовата държава и екологичната устойчивост от високорисков изкуствен интелект (AI), но също така да насърчават иновациите. С този закон Европа иска да се утвърди като лидер в областта, но и лидер в създаването на регулация за ползването на технологията.

Чрез този регламент се установяват задълженията за AI, като се вземат предвид потенциалните рискове и степента на въздействие, допълват от ЕП.

Новият регламент все още не е окончателно приет. Той трябва да премине проверка на юрист-лингвисти, а след това трябва официално да бъде гласуван и от Съвета. Влизането му в сила ще се случи 10 дни след публикуването му в Официален вестник, а пълното му приложение ще се случи 24 месеца след влизането в сила.

Какво обаче включва новият законодателен акт?

За какво не може да се ползва AI?

В правилата ясно се посочва кога изкуственият интелект не бива да бъде използван – в ситуации, застрашаващи правата на гражданите, в това число системи за биометрична категоризация, които са базирани на чувствителни характеристики.

Освен това не е позволено използването на AI за нецеленасочено извличане на лицеви изображения от интернет или от записи от видеонаблюдение с цел създаването на бази от данни за разпознаване на лица.

Предвижда се забрана на системите за разпознаване на емоциите на работното място и в училищата, за социално оценяване, прогнозиране на престъпление и AI, който манипулира човешкото поведение или използва човешката уязвимост.

Изключения в областта на правоприлагането

Забранено е използването на системи за биометрична идентификация от правоприлагащите органи, но все пак има изключения за някои ситуации. Такива системи в реално време могат да се използват, само ако са спазени строги граници, например ползването на такива системи е органичено във времето и географския обхват и подлежи на специално предварително административно или съдебно решение. Подобен тип системи могат целенасочено да се използват за търсенето на изчезнал човек или за предотвратяване на терористично нападение.  Ползването на такива системи постфактум се счита за случай на използване на високорискови системи с AI, който изисква съдебно разрешение във връзка с престъпление.

Задължения за високорисковите системи

Новата регулация поставя много ясни задължения и за други високорискови AI системи, тъй като могат да донесат потенциални вреди на здравето, безопасността, основните права и други. Например високорискови приложения на AI вклюват критична инфраструктура, образование, заетост, основни частни и публични услуги (като банково дело и здравеопазване), правосъдие и демократични процеси. Този тип системи ще трябва да оценяват и да намаляват рисковете, да поддържат регистри за употребата си, да бъдат прозрачни и ще трябва да бъдат съблюдавани от хора. Освен това трябва да се гарантира правото на гражданите да подават жалби, свързани с AI системи.

Изисквания за прозрачност

Системите за AI с общо предназначение и моделите, на които те се основават, следва да отговарят на определени изисквания за прозрачност, например спазване на законодателството на ЕС в областта на авторското право и публикуване на подробно обобщение на съдържанието, използвано за обучение на модела. Допълнителни изисквания ще има за моделите на по-мощните AI системи с общо предназначение, които биха могли да породят системни рискове.

Освен това изкуствените или манипулираните изображения и аудио- или видеосъдържание (deep fakes) трябва да бъдат ясно обозначени като такива.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 18:21 | 13.03.24 г.
fallback
Още от Новини и анализи виж още