fallback

Пътят към регулирането на изкуствения интелект е осеян с препятствия

Франция, Италия и Германия се противопоставят на плановете на ЕС за контрол върху фундаменталните модели на технологията

13:30 | 07.12.23 г. 2
Автор - снимка
Създател
Автор - снимка
Редактор

Сагата в Open AI (компанията разработила чатбота ChatGPT, чийто директор Сам Алтман беше отстранен, а после върнат – бел. прев.) показа пределно ясно, че демократичните институции трябва да управляват мощни системи с изкуствен интелект (AI системи). Но противно на някои повърхностни твърдения, които сочат, че човек може да бъде или за регулирането, или против, дяволът е в детайлите. Има битки за посоката, в която трябва да поеме AI регулирането и какви компромиси са приемливи. Виждаме вървящата политическа дискусия относно това какво да се включи или изключи в Закона за изкуствения интелект на ЕС, пише за Financial Times Мариете Шааке, международен директор в станфордския Център за кибер политики и специален съветник на Европейската комисия.

Тази седмица преговарящите в ЕС ще уточнят подробностите в това, което е планирано да бъде последният кръг от преговорите по знаковия закон, управляващ AI. ЕС е първият сред демокрациите, който ще приеме цялостно законодателство. Но въпреки първоначалното политическо обединение около акта, то изглежда се разпада в последния момент.

Първоначално законът беше предназначен да осигури пропорционално намаляване на риска относно редица AI функции. Например, компания, предлагаща AI услуга за анализ на кандидати за работа или университет, ще трябва да предприеме стъпки, за да предотврати нейната система да навреди неправомерно на достъпа на хората. Системите за лицево разпознаване ще бъдат подложени на по-строги проверки поради защитата на поверителността, а някои от най-мощните системи за изкуствен интелект, като социалното кредитно оценяване, ще бъдат напълно забранени.

Но когато ChatGPT беше пуснат и се разви общественото разбиране за изкуствения интелект с общо предназначение, нараснаха и призивите той да се регулира чрез съответен закон. Фундаменталните модели са технологията, която може както да изпълнява самостоятелни задачи, така и да служи като база за много други AI приложения. Те могат да се използват за генериране на текст, изображения и звук или да бъдат обучени да извършват всичко - от разпознаване на лица до модериране на съдържание. Като се има предвид този безграничен потенциал, оставянето на неконтролирани фундаментални модели извън закона би било пропусната възможност за предотвратяване на вреда. Изпълнителната заповед на Белия дом относно изкуствения интелект, както и Кодексът за поведение на Г-7, се отнасят и до тези модели.

Франция, Италия и Германия обаче отхвърлят тази идея: те се притесняват, че ако фундаменталните модели бъдат регулирани, техните зараждащи се местни AI компании никога няма да могат да настигнат американските гиганти. Разбираемо е, че страни като Германия и Франция искат да развият суверенни AI способности – но все пак грешат, като се противопоставят на регулирането.

Представете си как незабелязан недостатък в основен модел може да пренесе към хилядите потребители надолу по веригата, които създават приложения с модела. Справедливо ли е един бизнес да отговаря за използването на продукта на друг? Нищо чудно, че МСП асоциациите (на малките и средни предприятия – бел. прев.) се притесняват от разходите за спазване на изискванията за най-малките участници във веригата на стойността.

По-разумно е най-могъщите да бъде най-отговорни. Ако компании като Open AI, Anthropic и Google DeepMind бъдат оставени без надзор, концентрацията на пазара, ерозията на поверителността и опасенията за безопасността няма да бъдат контролирани независимо. Защо да не се заемем с проблема в основата и не изградим екосистема на доверие? Не само, че е много по-евтино най-мощните компании да бъдат обект на надзор, но е и почти невъзможно ретроспективно да се разплете възела от данни, модели и алгоритмични корекции.

От друга страна, компаниите също трябва да се възползват от атестиран надзор в сектор, който остава измъчван от проблеми с безопасността, дискриминацията, фалшификатите и халюцинациите (хубав начин да се нарекат AI лъжите).

Преговарящите в ЕС за Закона за изкуствения интелект предлагат стъпаловиден подход към ограничаването на фундаменталните модели, така че нивото на регулиране да е постепенно, отговарящо на въздействието на моделите. Това означава, че само малък брой компании ще попаднат в обхвата на регулирането, позволявайки на други да растат, преди да бъдат засегнати от него. И тъй като основните модели все още се развиват, новите правила трябва да оставят място за корекции с промените в технологията.

Не е изненадващо, че последните фази на преговорите са най-трудни – това винаги е така. Онези, които се притесняват, че напрежението може да доведе до края на Закона за изкуствения интелект, изглежда не знаят как се развиват законодателните битки. За всички заинтересовани страни в ЕС е заложено много и светът наблюдава за какъв закон в крайна сметка ще гласува съюзът. Да се надяваме, че политическите лидери ще успеят да се споразумеят за набор от правила, устойчиви в бъдеще. С голямата технологична мощ трябва да дойде и голяма отговорност, без значение дали френски, американски или немски инженери са изградили системата, завършва Шааке.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 13:18 | 07.12.23 г.
fallback
Още от Новини и анализи виж още