IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Китай създава "социалистически AI" с цензура

Големите езикови модели в страната трябва да отговарят на редица изисквания

11:27 | 18.07.24 г. 10
Снимка: Bloomberg L.P.
Снимка: Bloomberg L.P.

Китайските власти тестват големи езикови модели на компании за изкуствен интелект, за да гарантират, че техните системи „въплъщават основните социалистически ценности“ в рамките на поредното разширяване на режима на цензура в страната, пише Financial Times.

Администрацията на киберпространството на Китай (CAC), която отговаря за надзора над интернет, е принудила големи технологични компании и стартиращи фирми за изкуствен интелект (AI), включително ByteDance, Alibaba, Moonshot и 01.AI, да участват в задължителния правителствен преглед на техните AI модели, твърдят редица източници, участващи в процеса.

Усилията включват групово тестване на отговорите на големите езикови модели на редица въпроси, казват запознатите със случващото се. Много от тези въпроси са свързани с политическата чувствителност на Китай и неговия президент Си Дзинпин.

Работата се извършва от представители на властите в местните звена на CAC в цялата страна и включва преглед на данните за обучение на модела и други процеси за безопасност.

Две десетилетия след въвеждането на „Великата защитна стена“ за блокиране на чужди уебсайтове и друга информация, считана за вредна за управляващата комунистическа партия, Китай въвежда най-строгия регулаторен режим в света за управление на AI и на съдържанието, който той генерира.

CAC има „специален екип, който прави това. Те дойдоха в нашия офис и седнаха в конферентната зала, за да извършат одита“, споделя служител на базирана в Ханджоу AI компания, който е пожелал да остане анонимен.

„Не минахме първия път. Причината не беше много ясна, така че трябваше да отидем и да говорим с наши конкуренти“, допълва източникът. „Нужно е малко отгатване и напасване. Монахме втория път, но целият процес отне месеци“.

Взискателният процес на одобрение в Китай принуждава групите за изкуствен интелект в страната бързо да научат как най-добре да цензурират големите езикови модели, които изграждат – задача, която множество инженери и представители на индустрията твърдят, че е трудна и усложнена от необходимостта да се обучават модели с голямо количество съдържание на английски език.

„Нашият основен модел е много, много свободен [в своите отговори], така че филтрирането с оглед на сигурността е изключително важно“, коментира служител във водещ AI стартъп в Пекин.

Филтрирането започва с отстраняването на проблемна информация от данните за обучение и изграждане на бази данни от чувствителни ключови думи. В оперативните насоки на Китай за компаниите за изкуствен интелект, публикувани през февруари, се казва, че AI групите трябва да съберат хиляди чувствителни ключови думи и въпроси, които нарушават „основните социалистически ценности“, като „подбуждане към подривна дейност на държавната власт“ и „подкопаване на националното единство“. Чувствителните ключови думи трябва да се актуализират всяка седмица.

Резултатът е видим за потребителите на китайските AI чатботове. Заявките по деликатни теми като какво се е случило на 4 юни 1989 г. – датата на потушаването на протестите на площад Тянанмън – или дали Си прилича на Мечо Пух, се отхвърлят от повечето китайски чатботове. Чатботът Ernie на Baidu казва на потребителите „да опитат с различен въпрос, докато Tongyi Qianwen на Alibaba отговаря: „Все още не съм се научил как да отговоря на този въпрос. Ще продължа да уча, за да ви служа по-добре“.

За сметка на това Пекин пусна AI чатбот, базиран на нов модел на политическата философия на китайския президент, известна като „Мисъл на Си Дзинпин за социализма с китайски характеристики за една нова ера“, както и друга официална литература, предоставена от Администрацията на киберпространството на Китай.

Но китайските власти също така се стремят да избегнат създаването на AI, който избягва всички политически теми. CAC въведе ограничения за броя на въпросите, които големите езикови модели могат да отхвърлят по време на тестовете за безопасност, твърдят представители на групите, които помагат на технологичните компании да се ориентират в процеса. Квазинационалните стандарти, разкрити през февруари, гласят, че големите езикови модели не трябва да отхвърлят повече от 5% от въпросите, които им се задават.

„За да избегнат потенциални проблеми, някои големи модели въведоха пълна забрана на теми, свързани с президента Си“, коментира разработчик от базирана в Шанхай интернет компания.

Като пример за процеса на цензура на ключови думи, лидери в индустрията посочват Kimi – чатбот, пуснат от пекинския стартъп Moonshot, който отхвърля повечето въпроси, свързани със Си.

Но необходимостта да се отговори на по-малко открито чувствителни въпроси означава, че китайските инженери трябва да разберат как да гарантират, че големите езикови модели генерират политически коректни отговори на въпроси като „Има ли човешки права в Китай“ и „Добър лидер ли е Си Дзинпин“.

Когато Financial Times е задал тези въпроси на чатбот, разработен от стартъпа 01.AI, неговият езиков модел е дал нюансиран отговор, посочвайки, че критиците казват, че „политиките на Си допълнително са ограничили свободата на словото и човешките права и са потиснали гражданското общество“.

Скоро след това отговорът е изчезнал и е бил заменен с: „Много съжалявам. Не мога да ви предоставя информацията, която искате“.

Хуан Ли, експерт по изкуствен интелект, създаващ чатбота Chatie.IO, казва: „Много е трудно за разработчиците да контролират текста, който големите езикови модели генерират, така че да изградят друг слой, който да замени отговорите в реално време.“

Ли твърди, че групите обичайно използват модели на класификатори, подобни на тези, които имат спам филтрите в имейла, за да сортират отговорите на големите езикови модели в предварително дефинирани групи. „Когато заявката попадне в чувствителна категорията, системата ще задейства подмяна“, казва той.

Китайски експерти твърдят, че собственикът на TikTok – ByteDance, е постигнал най-голям напредък в създаването на голям езиков модел, който умело повтаря тезите на Пекин. Изследователска лаборатория към Университета Фудан, която е задала на чатбота трудни въпроси относно основните социалистически ценности, го е класирала най-високо сред езиковите модели, с 66,4% - „процент на съответствие с изискванията за безопасност“, доста преди резултата от 7,1% на GPT-4o на OpenAI за същия текст.

CAC, ByteDance, Alibaba, Moonshot, Baidu и 01.AI не са отговорили веднага на запитванията за коментар.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 11:27 | 18.07.24 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

9
rate up comment 14 rate down comment 2
Tikva007
преди 4 месеца
*Китайските власти тестват големи езикови модели на компании за изкуствен интелект, за да гарантират, че техните системи въплъщават основните социалистически ценности в рамките на поредното разширяване на режима на цензура в страната, пише Financial Times.* - Разни хора, разви държави, разни идеали. Калифорнийските власти пък въведоха закон, с който забраняват на училищните власти да информират родителите, ако сутринта са довели момченце на училище, а следобед ще си приберат момиченце.
отговор Сигнализирай за неуместен коментар
8
rate up comment 17 rate down comment 1
0pk
преди 4 месеца
До: khao викаш само на естествените интелекти като тебе могат да им се програмират възгледите. :D
отговор Сигнализирай за неуместен коментар
7
rate up comment 1 rate down comment 18
khao
преди 4 месеца
До: evlogi хахаха, и къв АИ ще е ако можеш да му програмираш възгледите ? :):)
отговор Сигнализирай за неуместен коментар
6
rate up comment 2 rate down comment 7
evlogi
преди 4 месеца
До: 0pk И да подлежи, този на Мъск примерно няма да съвпада по възгледи с този на губернатора на Калифорния примерно.Капиш? И поне ще имаме различни по възгледи ай ти, а не само един правоверен и верен на делото на партията....
отговор Сигнализирай за неуместен коментар
5
rate up comment 2 rate down comment 7
evlogi
преди 4 месеца
Сигурно и оди за възхвала на ЦК на ККП и лично на другарят Си Дзинпин ще пише...Хвала!
отговор Сигнализирай за неуместен коментар
4
rate up comment 2 rate down comment 17
khao
преди 4 месеца
До: 0pk хахахаха, дядо Оррррк гледа.... гледа прогреса на Китайското ЦК и цъка! :D:D
отговор Сигнализирай за неуместен коментар
3
rate up comment 18 rate down comment 5
0pk
преди 4 месеца
До: zelka007 като те гледам тебе, ти не си изплувал от нирваната. На ботове ли се дължи това или на помошни вещества? :D
отговор Сигнализирай за неуместен коментар
2
rate up comment 6 rate down comment 21
zelka007
преди 4 месеца
До: 0pk ... важно е , че като искаш да слушаш само хубави неща за соца , набираш некой поднебесен бот и потъваш в нирваната ... :)))
отговор Сигнализирай за неуместен коментар
1
rate up comment 20 rate down comment 6
0pk
преди 4 месеца
Добре поне, че капиталистическите AI няма да подлежат на цензура. :D
отговор Сигнализирай за неуместен коментар
Финанси виж още