fallback

Китай създава "социалистически AI" с цензура

Големите езикови модели в страната трябва да отговарят на редица изисквания

11:27 | 18.07.24 г. 9

Китайските власти тестват големи езикови модели на компании за изкуствен интелект, за да гарантират, че техните системи „въплъщават основните социалистически ценности“ в рамките на поредното разширяване на режима на цензура в страната, пише Financial Times.

Администрацията на киберпространството на Китай (CAC), която отговаря за надзора над интернет, е принудила големи технологични компании и стартиращи фирми за изкуствен интелект (AI), включително ByteDance, Alibaba, Moonshot и 01.AI, да участват в задължителния правителствен преглед на техните AI модели, твърдят редица източници, участващи в процеса.

Усилията включват групово тестване на отговорите на големите езикови модели на редица въпроси, казват запознатите със случващото се. Много от тези въпроси са свързани с политическата чувствителност на Китай и неговия президент Си Дзинпин.

Работата се извършва от представители на властите в местните звена на CAC в цялата страна и включва преглед на данните за обучение на модела и други процеси за безопасност.

Две десетилетия след въвеждането на „Великата защитна стена“ за блокиране на чужди уебсайтове и друга информация, считана за вредна за управляващата комунистическа партия, Китай въвежда най-строгия регулаторен режим в света за управление на AI и на съдържанието, който той генерира.

CAC има „специален екип, който прави това. Те дойдоха в нашия офис и седнаха в конферентната зала, за да извършат одита“, споделя служител на базирана в Ханджоу AI компания, който е пожелал да остане анонимен.

„Не минахме първия път. Причината не беше много ясна, така че трябваше да отидем и да говорим с наши конкуренти“, допълва източникът. „Нужно е малко отгатване и напасване. Монахме втория път, но целият процес отне месеци“.

Взискателният процес на одобрение в Китай принуждава групите за изкуствен интелект в страната бързо да научат как най-добре да цензурират големите езикови модели, които изграждат – задача, която множество инженери и представители на индустрията твърдят, че е трудна и усложнена от необходимостта да се обучават модели с голямо количество съдържание на английски език.

„Нашият основен модел е много, много свободен [в своите отговори], така че филтрирането с оглед на сигурността е изключително важно“, коментира служител във водещ AI стартъп в Пекин.

Филтрирането започва с отстраняването на проблемна информация от данните за обучение и изграждане на бази данни от чувствителни ключови думи. В оперативните насоки на Китай за компаниите за изкуствен интелект, публикувани през февруари, се казва, че AI групите трябва да съберат хиляди чувствителни ключови думи и въпроси, които нарушават „основните социалистически ценности“, като „подбуждане към подривна дейност на държавната власт“ и „подкопаване на националното единство“. Чувствителните ключови думи трябва да се актуализират всяка седмица.

Резултатът е видим за потребителите на китайските AI чатботове. Заявките по деликатни теми като какво се е случило на 4 юни 1989 г. – датата на потушаването на протестите на площад Тянанмън – или дали Си прилича на Мечо Пух, се отхвърлят от повечето китайски чатботове. Чатботът Ernie на Baidu казва на потребителите „да опитат с различен въпрос, докато Tongyi Qianwen на Alibaba отговаря: „Все още не съм се научил как да отговоря на този въпрос. Ще продължа да уча, за да ви служа по-добре“.

За сметка на това Пекин пусна AI чатбот, базиран на нов модел на политическата философия на китайския президент, известна като „Мисъл на Си Дзинпин за социализма с китайски характеристики за една нова ера“, както и друга официална литература, предоставена от Администрацията на киберпространството на Китай.

Но китайските власти също така се стремят да избегнат създаването на AI, който избягва всички политически теми. CAC въведе ограничения за броя на въпросите, които големите езикови модели могат да отхвърлят по време на тестовете за безопасност, твърдят представители на групите, които помагат на технологичните компании да се ориентират в процеса. Квазинационалните стандарти, разкрити през февруари, гласят, че големите езикови модели не трябва да отхвърлят повече от 5% от въпросите, които им се задават.

„За да избегнат потенциални проблеми, някои големи модели въведоха пълна забрана на теми, свързани с президента Си“, коментира разработчик от базирана в Шанхай интернет компания.

Като пример за процеса на цензура на ключови думи, лидери в индустрията посочват Kimi – чатбот, пуснат от пекинския стартъп Moonshot, който отхвърля повечето въпроси, свързани със Си.

Но необходимостта да се отговори на по-малко открито чувствителни въпроси означава, че китайските инженери трябва да разберат как да гарантират, че големите езикови модели генерират политически коректни отговори на въпроси като „Има ли човешки права в Китай“ и „Добър лидер ли е Си Дзинпин“.

Когато Financial Times е задал тези въпроси на чатбот, разработен от стартъпа 01.AI, неговият езиков модел е дал нюансиран отговор, посочвайки, че критиците казват, че „политиките на Си допълнително са ограничили свободата на словото и човешките права и са потиснали гражданското общество“.

Скоро след това отговорът е изчезнал и е бил заменен с: „Много съжалявам. Не мога да ви предоставя информацията, която искате“.

Хуан Ли, експерт по изкуствен интелект, създаващ чатбота Chatie.IO, казва: „Много е трудно за разработчиците да контролират текста, който големите езикови модели генерират, така че да изградят друг слой, който да замени отговорите в реално време.“

Ли твърди, че групите обичайно използват модели на класификатори, подобни на тези, които имат спам филтрите в имейла, за да сортират отговорите на големите езикови модели в предварително дефинирани групи. „Когато заявката попадне в чувствителна категорията, системата ще задейства подмяна“, казва той.

Китайски експерти твърдят, че собственикът на TikTok – ByteDance, е постигнал най-голям напредък в създаването на голям езиков модел, който умело повтаря тезите на Пекин. Изследователска лаборатория към Университета Фудан, която е задала на чатбота трудни въпроси относно основните социалистически ценности, го е класирала най-високо сред езиковите модели, с 66,4% - „процент на съответствие с изискванията за безопасност“, доста преди резултата от 7,1% на GPT-4o на OpenAI за същия текст.

CAC, ByteDance, Alibaba, Moonshot, Baidu и 01.AI не са отговорили веднага на запитванията за коментар.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 11:27 | 18.07.24 г.
fallback
Още от Новини и анализи виж още