IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Технологиите се развиват, но това ни прави по-глупави

„Деквалификацията“ в лицето на когнитивната автоматизация е проблем, който се игнорира

19:00 | 26.08.24 г. 3
Автор - снимка
Създател
Снимка: Pixabay
Снимка: Pixabay

Ще ни направи ли изкуственият интелект по-глупави? Може би вече този процес е започнал, но още не сме го забелязали.

В страхотния разказ на Едуард Морган Форстър „Машината спира“ (1909 г.), цялото общество разчита на машини. Забравило как работят машините или дори основните умения за оцеляване, човечеството е затворено в пашкул под земята. Когато машината наречена The Mending Apparate се поврежда, хората разбират, че краят е близо, пише Андрю Орловски в коментар за Telegraph.

Много от нас днес все още не живеят в някакъв напълно автоматизиран лукс, а в странната зона на здрача, където хората и машините вече работят рамо до рамо. Нашата среда вече е нещо като кибернизирана система, но не можем да приемем, че въвеждането на нови технологии подобрява нещата. Всъщност това може да има катастрофални резултати.

Това се дължи на така наречената деквалификация – загуба на знанията и уменията, които притежаваме днес. Това е много комплексен проблем, който интересува малцина, предупреждават финландски учени в доклад, озаглавен „Порочните цикли на ерозията на уменията“.

Деквалификацията в лицето на когнитивната автоматизация е проблем, който „може да остане неразбран, непризнат нито от работници, нито от мениджъри“.

Игнорираме го дори когато е точно пред нас. Бившият съдия от Висшата лига на Англия Марк Клатенберг се оплака как технологията VAR е накарала реферите да не се доверяват на собствените си преценки. В авиацията деквалификацията е актуална тема от десетилетия, тъй като технологията поема все повече и повече от работата на пилота.

„Има известна причина да вярваме, че автоматизацията в пилотската кабина може вече да е преминала превратната точка“, предупреждава доайенът на дизайна на авиационната безопасност, ученият от НАСА Ърл Уайнър още през 1980 г. „Цифровите устройства се справят с малки грешки, като същевременно създават възможности за големи грешки“, отбеляза Уайнър.

Историята на авиационната безопасност е богата на уроци. Трагедията с полет 447 на Air France, който се разбива в Атлантическия океан през 2009 г., беше описана от Harvard Business Review като пример за „катастрофалните последици от автоматизацията“.

Пътническият самолет функционира перфектно до момента, в който се удря във водата, а последните думи от пилотската кабина, записани от Черната кутия, са „Не е вярно!“.

Понякога нарушаването на правилата спасява положението и се появява фигура, която се оказва великолепен човек в своето неподчинение. Един такъв герой е изигран от Том Ханкс във филма „Съли: Чучото на Хъдсън“. Всички пътници и целият екипаж на самолета оцеляват, когато пилотът Чесни Съленбъргер пренебрегва както своите инструменти, така и съветите на контрола на въздушното движение, приземявайки машината в река Хъдсън.

Деквалификацията заема централно място тук, тъй като фирмите съкращават служители и залагат на генеративния ИИ. Думата „интелигентност“ в изкуствен интелект е фундаментално измамна: софтуерът може да възпроизведе океани от правдоподобна, но подвеждаща информация, но не може да разсъждава и не разбира нищо.

 „Спрях да използвам изкуствен интелект, защото ме правеше по-глупав“, разкрива старши софтуерен разработчик.

Експерти от Microsoft и Университета в Единбург са открили, че има ограничение във времето за проверка на ИИ, което е свързано с „други продуктивни задачи като писане на код или провеждане на тестове“. Последствието е „повишено когнитивно натоварване, чувство на неудовлетвореност и време, прекарано в задачите, които генеративният ИИ е предназначен да поддържа“.

В някои случаи „използването на генеративен ИИ може всъщност да доведе до загуба на производителност“.

В допълнение, трябва да сте доста опитен, за да забележите грешките, които ИИ допуска. Младшите разработчици, които възлагат работата си на изкуствения интелект, ще загубят възможността да станат опитни професионалисти.

Помислете за това: това е един от начините, по които обществото в разказа на Форстър се деквалифицира. Експерти от Google предупреждават, че машината може да спре. Кодът, генериран от ИИ с лошо качество, бързо става труден за разбиране и поддръжка, изграждайки нещо, наречено жаргонно „технически дълг“.

Може би тогава трябва да мислим за историята на Форстър не като за измислица, а като за практически наръчник с инструкции. По ирония на съдбата нашите технологични лидери са тръгнали в обратната посока, отдръпвайки се от реалността в посока фикцията.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 18:54 | 26.08.24 г.
Специални проекти виж още
Най-четени новини
Още от Новини и анализи виж още

Коментари

3
rate up comment 3 rate down comment 1
Pyramid
преди 3 месеца
Аз не просто вярвам, УБЕДЕН СЪМ че, не "технологиите" отказват човек да мисли. Въпрос е или на избор, или на заложба ( в смисъл, на липса на.
отговор Сигнализирай за неуместен коментар
2
rate up comment 3 rate down comment 2
evlogi
преди 3 месеца
Ние в България няма какво да се притесняваме.По-*** от това,което сме в момента няма как да станем.
отговор Сигнализирай за неуместен коментар
1
rate up comment 3 rate down comment 1
Pyramid
преди 3 месеца
"Технологиите се развиват, но това ни прави по-глупави." Не, не мисля. То е, както се родиш. Някои ни подмина, а вас - Бог дал Бог взел - колкото толкова. @мин!
отговор Сигнализирай за неуместен коментар
Финанси виж още