Преди няколко месеца се озовах на пътя зад автономно (т.е. самоуправляващо се) превозно средство (AV) в Сан Франсиско. Беше объркващо - но не защото то караше лошо или опасно, а защото се движеше твърде добре, пише колумнистката на Financial Times Джилиън Тет.
По-конкретно, бот-шофьорът прилежно спираше на всеки знак „стоп“, не минаваше на жълт светофар и спазваше ограничението на скоростта. Това ме принуди да правя същото, донякъде за мое раздразнение, тъй като аз (както повечето човеци шофьори) досега понякога леко заобикалях правилата за движение.
Това е тривиален опит, но той подчертава един екзистенциален въпрос: докато се надпреварваме да изграждаме системи, които стават все по-добри в имитацията, какви типове човешко поведение трябва да копират ботовете?
Трябва ли това да бъде нашата идеализирана визия за поведение - да речем, свят, в който всички ние действително спазваме правилата за движение? Или да останем на страната на „истинските“ хора, където шофьорите пропълзяват между знаците за спиране? И най-важното, кой трябва да реши?
Въпросът е важен във всяка област, където се прилага генеративен AI (изкуствен интелект), било то финанси, медии, медицина или наука. Но автономните коли изострят въпроса, тъй като компании като Waymo, General Motors и Tesla, които вече управляват AV автопаркове на места като Аризона и Калифорния, предприемат леко различаващи се подходи.
Вземете Waymo, AV групата, собственост на Alphabet (компанията майка на Google – бел. прев.) Нейните превозни средства се движат из Финикс (Аризона) от почти две години с AI система, която (грубо казано) е разработена с помощта на предварително зададени принципи, като тези на Националната администрация за безопасност на магистралния транспорт (NHTSA).
„За разлика от хората, Waymo Driver е проектирана да спазва приложимите ограничения на скоростта“, казва компанията, цитирайки свое скорошно изследване, което показва, че хората превишават позволената скорост в половината от времето в Сан Франсиско и Финикс.
Автономните коли също така са обучени да спират на червени светофари – нещо, което радва NHTSA, която наскоро разкри, че близо 4,4 милиона американци са минали на червено през 2022 г., като повече от 11 хил. души са били убити между 2008 г. и 2021 г. по тази причина.
Не е изненадващо, че това прави колите на Waymo много по-безопасни от хората. (Разбира се, говорим за много ниска летва, като се има предвид, че 42 хил. души са загинали в автомобилни катастрофи в САЩ миналата година).
Но това, което е наистина интересно е, че ръководителите на Waymo подозират, че наличието на следващи правилата автономни коли във Финикс насърчава хората също да ги спазват - или защото са принудени да се движат зад тях, или са засрамени от това, че бот неволно им напомня за правилата на трафика. Натискът от околните работи - дори чрез роботи.
Има малко изследвания за това - засега. Но това отразява моя собствен опит в Сан Франсиско, пише авторката. А (ограничено) проучване на Масачусетския технологичен институт (MIT) показва, че наличието на AV на пътя може потенциално да подобри поведението на всички шофьори. Ура.
Tesla на Илон Мъск обаче е предприела различен подход. Както се отбелязва в биографията на Мъск от Уолтър Айзъксън, първоначално той се опитва да разработи AI с предварително зададени правила. Но след това прегръща по-нови форми на генеративен или статистически AI (подходът, използван в ChatGPT). Интелектът „обучава“ AI системите как да шофират не с предварително зададен код, а като наблюдават реални шофьори; очевидно са използвани 10 милиона видеоклипа от автомобили Tesla.
Давал Шроф, служител на Tesla, казва на Айзъксън, че единствените видеоклипове, използвани в това обучение, са „от хора, когато са се справили добре в пътна ситуация“. Това означава, че в Tesla са оценили тези 10 млн. клипа и са използвали само „добри“ примери на шофиране за обучение на ботовете.
Може би е така. Но има съобщения, че автономните коли на Tesla все повече имитират хора, като например такива, които се промъкват през стоп-знаци или забранителни светофари. Всъщност, когато Илон Мъск предаваше на живо пътуване, което предприе през август в AV, той трябваше да се намеси ръчно, за да спре преминаването на червен светофар. NHTSA разследва инцидента.
Разбира се, Мъск може да отвърне, че всички шофьори понякога трябва да нарушават правилата при необичайни обстоятелства в името на безопасността. Той може също така да посочи, че е естествено компаниите да предприемат различни подходи към AI и след това да оставят клиентите да избират; така обикновено работи корпоративната конкуренция.
Но някои регулатори са притеснени: въпреки че Cruise на GM представи данни по-рано тази година, показващи добри общи показатели за безопасност, наскоро Службата по моторните превозни средства на Калифорния (след инцидент) изиска компанията да спре да използва AV без човек зад волана. И проблемът е, че докато регулаторите теоретично могат да проверяват AV дали използва предварително зададени правила (ако външни хора получат достъп до кода), е по-трудно да се контролира генеративният AI, тъй като последствията от имитирането на „истинско“ човешко поведение са толкова непредвидими – дори за създателите му.
Така или иначе ключовият момент, който инвеститорите трябва да разберат, е, че варианти на този проблем скоро ще се появят и в области като финансите, както Гари Генслър, председателят на Комисията по ценни книжа и борси (SEC) на САЩ каза наскоро пред FT. Трябва ли AI играчите на финансовите пазари да бъдат програмирани с предварително зададени правила? Или да се учат, като имитират поведението на хора, които биха могли да нарушават правилата с цел печалба? Кой решава - и кой носи отговорност, ако нещо се обърка?
Няма лесни отговори. Но колкото по-разпространен става изкуственият интелект, толкова по-трудно ще е предизвикателството, както знаят участниците на споменатата среща във Великобритания. Може би те трябва да използват светофар, завършва Тет.