През последните десетилетия във финансите се появи набор от отличителни реакции около феномена, известен като „Fedspeak“ (медийните изяви на Федералния резерв – бел. прев.) Всеки път когато централен банкер направи коментар, икономисти (и журналисти) бързат да го анализират, докато трейдърите правят инвестиционни залози, пише колумнистката за САЩ на Financial Times Джилиън Тет.
Но ако икономистите от клона на Фед в Ричмънд са прави, този ритуал може скоро да се промени. Те наскоро поискаха от генеративния ИИ инструмент (с изкуствен интелект – бел. прев.) на чатбота ChatGPT да анализира изявленията на Фед и заключиха, че той „демонстрира силно представяне при класифицирането на Fedspeak изреченията, особено когато е фино настроен“. Нещо повече, „представянето на GPT моделите надминава тази на други популярни методи за класификация“, включително така наречените инструменти за „анализ на настроенията“, използвани сега от много трейдъри (които тълкуват медийните реакции, за да предскажат поведението на пазарите.)
Да, правилно прочетохте: роботите сега, може би, са по-добри в декодирането на ума на Джером Пауъл, председателят на Федералния резерв, отколкото други налични системи, според част от самия персонал на Фед.
Това хубаво ли е? Ако сте хедж фонд, търсещ конкурентно предимство, може да кажете „да“. Както и ако сте финансов мениджър, който се надява да рационализира персонала си. Анализът на ричмъндския Фед подчертава, че ChatGPT трябва да се използва в момента само с човешки надзор, тъй като макар да може да отговори правилно на 87 процента от въпросите в „стандартизиран тест за икономически знания“, той „не е безпогрешен и все още може да класифицира погрешно изречения или да не може да улови нюанси, които човек с опит в областта може да разшифрова”.
Това послание е отразено в потока от други сега излизащи анализи на финансовия ИИ, които анализират задачи, вариращи от избор на акции до преподаване на икономика. Въпреки че отбелязват, че ChatGPT може да има потенциал като „помощник“, ако цитираме ричмъндския анализ, те също така подчертават, че разчитането на изкуствения интелетк понякога може да е неблагонадеждно, отчасти защото неговият набор от данни е ограничен и небалансиран.
Всичко това обаче може да се промени с подобряването на ChatGPT. Така че - без изненада - някои от тези нови изследвания също предупреждават, че работните места на някои икономисти може скоро да бъдат застрашени. Което, разбира се, ще зарадва онези, които целят съкращаване на разходите.
Но ако искате да получите друга гледна точка върху последиците от това, струва си да разгледате предвиждащ анализ, написан съвместно от Лили Бейли и Гари Генслър, председател на американската Комисия по ценни книжа и борси (SEC), през 2020 г., докато беше учен в Масачузетския технологичен институт.
Анализът не предизвика голям шум по онова време, но е поразителен, тъй като твърди, че макар генеративният ИИ да може да осигури невероятни ползи за финансите, той също така създава три големи риска за стабилността (напълно различни от сегашното безпокойство, че интелигентните роботи може да поискат да ни убият.)
Единият риск е непрозрачността: ИИ инструментите са напълно мистериозни за всички, освен за техните създатели. И въпреки че на теория може да е възможно да се коригира това, като се изисква от създателите и потребителите на ИИ да публикуват своите вътрешни насоки по стандартизиран начин (както технологичното светило Тим О’Райли разумно предложи), това изглежда малко вероятно да се случи скоро.
И много инвеститори (и регулатори) биха се затруднили да разберат такива данни, дори и да се появят. По този начин съществува нарастващ риск, че „необясними резултати могат да доведат до намаляване на способността на разработчиците, ръководителите в корпоративните бордове и регулаторите да предвидят уязвимостите на модела [във финансите]“, както пишат авторите.
Вторият проблем е рискът от концентрация. Който и да спечели настоящите битки между Microsoft и Google (или Facebook и Amazon) за пазарен дял в генеративния ИИ, вероятно е само няколко играчи да доминират, заедно със съперник (или два) в Китай. След това многобройни услуги ще бъдат изградени върху тази ИИ база. Но общността на всяка база може да създаде „възход на монокултури във финансовата система поради участници, които оптимизират, използвайки едни и същи метрики“, както се отбелязва в анализа.
Това означава, че ако в тази база се появи проблем, той може да отрови цялата система. И дори без тази опасност монокултурите са склонни да създават стадно дигитално поведение (компютри, които действат еднакво). Това, от своя страна, ще повиши рисковете от про-цикличност (или самоподсилващи се колебания на пазара), както Марк Карни, бивш управител на Английската централна банка (АЦБ), отбеляза.
„Ами ако генеративен ИИ модел, слушащ Fedspeak, се бъгне и зарази всички пазарни програми?“, опасява се Генслър. „Или ако ипотечният пазар разчита на един и същ базов слой и нещо се обърка?“, допълва той.
Третият риск се върти около „регулаторните пропуски“: евфемизъм за факта, че финансовите регулатори изглеждат зле подготвени да разберат ИИ или дори да са наясно кой трябва да го надзирава. Наистина, има забележително малко публичен дебат по проблемите от 2020 г. насам – въпреки че Генслър казва, че трите, които той е идентифицирал, сега стават по-сериозни, тъй като генеративният AI се разпространява, създавайки „истински рискове за финансовата стабилност“.
Това няма да попречи на финансистите да побързат да прегърнат ChatGPT в опитите си да анализират Fedspeak, да подбират акции или нещо друго. Но то трябва да даде на инвеститорите и регулаторите повод за размисъл.
Фалитът на Silicon Valley Bank е един ужасяващ урок за това как технологичните иновации могат неочаквано да променят финансите (в този случай чрез засилване на дигиталното стадно поведение). Скорошните моментни пазарни сривове предлагат друг. Тези уроци обаче вероятно са подготовка за бъдещето на вирусните вериги за обратна връзка. Регулаторите трябва да се събудят. А също така инвеститорите и пристрастените към Fedspeak.