Много се е променило от 1986 г. насам, когато философът от Принстън Хари Франкфурт публикува есе в неизвестното списание Raritan, озаглавено „За глупостите“. И все пак есето, преиздадено по-късно като тънък бестселър, остава обезпокоително актуално, пише колумнистът на Financial Times Тим Харфърд.
Брилянтното прозрение на Франкфурт беше, че глупостите са извън плоскостта истина-лъжа. Лъжецът се интересува от истината и иска да я замъгли. Един разпространител на глупости е безразличен към това дали твърденията му са верни: „Той просто ги избира или си ги измисля, за да отговарят на целта му.“ Типично за писател от 20-ти век, Франкфурт описва разпространителя като „той“, а не като „тя“ или „те“. Но сега сме 2023 г. и може да се наложи да го наричаме „то“ - защото ново поколение чатботове са готови да генерират глупости в нечуван мащаб.
Помислете какво се случи, когато Дейвид Смердън, икономист от Университета на Куинсланд, попита водещия чатбот ChatGPT: „Кой е най-цитираният икономически анализ на всички времена?“ ChatGPT отговори, че това е „Теория на икономическата история“ от Дъглас Норт и Робърт Томас, публикувана в Journal of Economic History през 1969 г. и цитирана повече от 30 хил. пъти оттогава. Чатботът добави, че статията се „смята за класика в областта на икономическата история“. Добър отговор в някои отношения, но в други не чак толкова, защото такъв анализ всъщност не съществува.
Защо ChatGPT измисли този анализ? Смердън спекулира по следния начин: най-цитираните икономически статии често съдържат „теория“ и „икономически“ в себе си; ако заглавието на един анализ започва с „теория на икономическата…" тогава "…история” е вероятното продължение. Дъглас Норт, Нобелов лауреат, е много цитиран икономически историк и той написа книга с Робърт Томас. С други думи, цитатът е силно правдоподобен. Това, с което се занимава ChatGPT, не е истина, а правдоподобност.
И как би могло да бъде иначе? ChatGPT не разполага с модел на света. Вместо това той има модел за нещата, които хората са склонни да пишат. Това обяснява защо звучи толкова удивително правдоподобно. То също обяснява защо на чатбота може да му е трудно да предостави верни отговори на някои сравнително ясни въпроси.
Но не е само ChatGPT. Краткотрайният бот „Galactica“ на Meta беше скандално известен с изобретяването на цитати. Но не става въпрос само за икономически статии. Авторът Тим Харфърд наскоро разговаря с авторката Джули Литкот-Хеймс, новоизбран член в градския съвет на Пало Алто. ChatGPT написа история за нейното постижение. „Беше толкова вярно и така добре написано“, казва тя. Но Литкот-Хеймс е чернокожа и ChatGPT изтъкна как тя е първата чернокожа жена, избрана в градския съвет. Напълно правдоподобно, но напълно невярно.
Гари Маркъс, автор на Rebooting AI, обясни в подкаста на Езра Клайн: „Всичко, което чатботът произвежда, звучи правдоподобно, защото е извлечено от неща, казани от хората. Но той не винаги знае връзките между нещата, които сглобява“. Което подтикна Клайн да зададе въпроса: „Какво означава да сведеш цената на глупостите до нула“?
Експертите не са на едно мнение относно това колко сериозен е проблемът. ChatGPT постигна забележителен напредък за много кратко време. Може би следващото поколение, след година-две, няма да страда от този проблем. Маркъс не е съгласен. Той твърди, че псевдофактите няма да изчезнат без фундаментално преосмисляне на начина, по който са изградени тези системи с изкуствен интелект.
Едно нещо е достатъчно ясно: в света има голямо търсене на глупости и ако са достатъчно евтини, те ще бъдат предлагани в огромни количества. Помислете колко усърдно сега трябва да се защитаваме срещу спам, „шум“ и кух „вайъръл“ статут. И помислете колко по-трудно ще бъде, когато онлайн светът се изпълни с интересен текст, който никой никога не е писал, или очарователни снимки на хора и места, които не съществуват.
Помислете за известния проблем с „фалшивите новини“, който първоначално се отнасяше до група македонски тийнейджъри, които измислят сензационни истории с цел кликания, а оттам и приходи от реклама. Тяхната цел не беше измамата, а привличането на внимание. Македонските тийнейджъри и ChatGPT демонстрират едно и също нещо: много по-лесно е да генерирате интересни истории, ако не сте ограничени от респект към истината.
През 2016 г. Тим Харфърд пише за проблема с глупостите, преди референдума за Brexit и избирането на Доналд Тръмп. Тогава той беше сериозен; сега още повече. След като Тръмп беше предизвикан от Fox News относно ретуитване на невярно твърдение, той отговори: „Мога ли да проверявам всяка статистика?“ ChatGPT може да каже същото.
Ако държите да сте прави, тогава да, трябва да проверявате. Но ако се интересувате само от това да бъдете забелязани, да ви се възхищават или да ви вярват, тогава истината не е съществена. ChatGPT казва много верни неща, но само като страничен продукт от процеса си на научаване да изглежда правдоподобен.
Чатботовете направиха огромен скок напред през последните няколко години, но дори първите версии от 20-ти век бяха напълно способни да привлекат човешкото внимание. MGonz премина теста на Тюринг (че една машина притежава интелект, ако не може да бъде различена от човек – бел. прев.) през 1989 г., като изстреля поток от обиди към неподозиращ, че е машина човек, който й отвърна с ругатни. ELIZA, най-известният ранен чатбот, очарова хората, като изглеждаше, че се интересува от техните проблеми. „Разкажи ми повече“ и „Защо се чувстваш така?“, бяха негови реплики.
Тези прости чатботове направиха достатъчно, за да доближат хората до тяхното ниво на разговор. Това трябва да е предупреждение да не позволяваме на чатботовете да определят правилата за ангажираност. Хари Франкфурт предупреди, че разпространителят на глупости не се противопоставя на истината, но „изобщо не й обръща внимание. Поради това глупостите са по-голям враг на истината от лъжите.” Смятайте се за предупредени: когато става въпрос за глупости, количеството има свое собствено качество.
преди 1 година https://youtube.com/shorts/puNu6ZSuLyo?feature=share отговор Сигнализирай за неуместен коментар