Бързото пускане на генеративни AI инструменти (с изкуствен интелект – б.р.) беше момент за равносметка, пише за Financial Times Мариете Шааке, директор в Центъра за кибер политика към Станфордския университет. Наскоро Джефри Хинтън, известен разработчик на AI, обяви оттеглянето си от Google, като каза, че съжалява за работата си и иска да говори свободно за опасностите и рисковете на създадената от него технология.
Илон Мъск, в типичния си контра стил, едновременно предупреди, че AI може да унищожи цивилизацията и създаде AI компания. Той инвестира в OpenAI, компанията зад генеративни AI инструменти като GPT-4.
Мъск се присъедини към AI експерти и някои лидери в индустрията, призовавайки за шестмесечна пауза в разработването на генеративен изкуствен интелект, като същевременно поиска от властите да въведат правила, вероятно в рамките на този срок, коментира Шааке и допълва, че приемането и прилагането на закон за AI, да не говорим за създаването на нов регулаторен орган, ще отнеме години.
Други предлагат разпит на AI ръководители под клетва, за да се състави списък на проблемите със сигурността, които те са срещнали. Но предишните изслушвания на Марк Зукърбърг от Meta или Сундар Пичай от Google не оставиха отпечатък върху социалните мрежи и бизнес моделите на гигантите в търсенето, като не бяха наложени закони за ограничаване на властта им.
Изведнъж всички искат да регулират AI, пише още в анализа на експерта. Написани бяха отворени писма и бяха обсъдени законодателни предложения. За съжаление, несъответствията между характеристиките на AI и предлаганите решения издават дълбоко неразбиране между хората, които разработват и продават AI, и тези, които създават политики и гласуват нови закони.
Мариете Шааке отбелязва в коментара си, че политиците по света разбраха, че трябва да направят нещо бързо. Сега те се надпреварват да определят нови правила. В рядък момент на политическо единомислие републиканците и демократите, китайските и европейските правителства се надяват да ограничат заплахите от AI (макар и по свои политически причини). ЕС е напреднал най-много в очертаването на това как трябва да изглеждат предпазните механизми. Законът за AI на ЕС разглежда най-вече това как AI, след като бъде внедрен, може да създаде рискове за достъпа до работа, образованието или правата на човека. Но представители на ЕС признават, че този фокус върху приложенията на AI пропуска генеративния AI или AI като технология. Следващият набор от пробиви ще направи днешните синтетични медии да изглеждат примитивни. Може да не знаем какво следва, но знаем, че нови технологии ще продължат да се появяват. Регламентите, приети днес, също така ще трябва да се отнасят до бъдещите развития.
Това е предизвикателство, което трябва да бъде разрешено и ще изисква иновация на самата политика, категорина е Шааке. "Би било страхотно, ако разработчиците на изкуствен интелект актуализират своето разбиране за върховенството на закона, но аз се научих да намалявам очакванията си по този въпрос", споделя тя. Това, което вълнува инженерите, тревожи регулаторите. Рисковете на системите с изкуствен интелект се крият не само в техните специфични приложения, но и във въпроса кой изобщо има власт над тях. В момента фирмите движат шоуто и това е опасност за демокрацията.
Всяко успешно регулиране на AI трябва да адресира три области. Първо, динамиката на властта между AI разработчиците и останалата част от обществото се нуждае от ребалансиране. Тази асиметрия вече е толкова значителна, че само най-големите технологични компании могат да разработят AI, както заради достъпа до данни, така и поради способността да ги обработват. Дори богат университет като Станфорд, който обучава топ AI инженери, не разполага с данните или изчислителната мощност на съседните компании от Силициевата долина. В резултат на това тайните на вътрешното функциониране на AI – които имат огромно въздействие върху обществото – остават заключени в корпоративните системи.
Вторият проблем е достъпът до информация. Трябва да има гаранции за обществения интерес, които да позволят на законодателите да видят строежа на AI. Липсва обществено разбиране за алгоритмите, управляващи приложенията, които засягат обществото. Това от своя страна възпрепятства дискусията, основана на факти, целенасочената обществена политика и необходимите механизми за отчетност.
И трето, не можем да пренебрегнем постоянно променящия се характер на AI. Регулацията трябва да бъде гъвкава и твърдо приложима. Това може да включва водене на регистри, така че когато настройките се коригират, въздействията да могат да бъдат записани, пише още Шааке.
Въпреки че има политическа воля за регулиране на AI, пътят напред е труден. Както AI експертите, така и законодателите биха спечелили от по-задълбоченото разбиране на другата страна: компютърните учени трябва да разберат своето въздействие върху демокрацията, а регулаторите трябва да се потопят по-дълбоко в механизма на работа на AI. Пропастта между тях допълнително ще възпрепятства разработването на регулации, които отговарят на силата на AI - и това несъответствие създава собствени рискове.