IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Има по-страшни неща от АІ по време на война

Откакто има технологичен прогрес, има и рискове за неговата злоупотреба, важното е човекът, а не машината, да взима крайните решения, пише Андреас Клут

11:33 | 17.03.24 г.
Автор - снимка
Създател
Автор - снимка
Редактор
Снимка: Bloomberg LP
Снимка: Bloomberg LP

Няма съмнение, че изкуственият интелект (AI) ще трансформира начина, по който се водят войни, както и всичко останало. Но дали промяната ще е апокалипсис или еволюция? В името на човечеството по-добре да е второто, пише колумнистът Андреас Клут в материал за Bloomberg.

Технологичните иновации винаги са променяли войните. Това е така от появата на каретите, стремената, барута, ядрените ракети, а днес и дроновете – както Украйна и Русия демонстрират всеки ден.

Моят любим пример, пише Клут, заради простотата си, е битката при Садова през 19-и век, при която прусите побеждават австрийците, до голяма степен защото разполагат с оръжия със задно зареждане, които могат бързо да презареждат дори и легнали на земята. Австрийците обаче разполагат с пуши с дулно зареждане, които се презареждат по-бавно и докато са изправени.

Ако AI беше подобен на този вид технологии, то или САЩ, или Китай – борещи се за лидерство в областта, може да се надяват да спечелят мимолетно военно превъзходство. Но като военна технология изкуственият интелект прилича не толкова на мускет, а повече на телеграфа, интернета или дори електричеството. Тоест, по-малко е оръжие, отколкото инфраструктура, която постепенно трансформира всичко, включително и воденето на войни.

Но процесът вече е в ход. Американските сателити и разузнавателни дронове прихващат толкова много информация, че никоя армия или човешки същества могат да я анализират цялата достатъчно бързо, за да се дадат – на украинците да речем – полезни съвети за движението на руските военни в адекватно време. Така че работата може да бъде поета от AI. По този начин войниците ще са като доктори, които използват AI, за да ги насочва сред данните.

Следващата стъпка ще е вкарването на изкуствен интелект във всякакъв вид роботи, които да действат например като автоматизирани помощници на пилоти на изтребители. Човек ще пилотира самолета, но ще е обграден от дронове, използващи сензори и изкуствен интелект, да засичат и – с позволението на пилота – да унищожават вражеската защита или сухопътни сили. Роботите няма да се интересуват дали самите те ще бъдат унищожени, ако това е съдбата им. По този начин AI може да спаси човешки животи, както и разходи, позволявайки на хората да се концентрират върху по-общия контекст на мисията.

Ключов елемент тук е, че тези роботи трябва да искат позволение от човек, преди да нанасят смъртоносни удари. Не трябва да се доверяваме никога, че алгоритъм ще има достатъчно адекватно осъзнаване на контекст, за да прецени, например, дали хора в обикновени дрехи са цивилни или бойци – дори и хората трудно правят разликата. Нито пък трябва да оставяме AI да решава дали необходимите за тактическия успех на дадена мисия човешки жертви са пропорционални на стратегическите цели.

Екзистенциалният въпрос тогава не е за самия AI като такъв. Пол Шаре от организацията Center for a New American Security, автор по темата, смята, че той е по-скоро за това каква степен на автономност ние хората ще дадем на нашите машини. Дали алгоритъмът ще помага на войниците, офицерите и командирите, или ще ги замени?

Това не е напълно нов проблем. Дълго преди AI, по време на Студената война, Москва е създала системата „Периметър“. Това е напълно автоматизирана процедура за изстрелване на ядрени ракети, ако цялото човешко ръководство в страната бъде избито при атака. Целта, очевидно, е да убеди врага, че дори успешен първи удар ще доведе до гарантирано взаимно унищожение. Но човек не може да не се запита какво ще стане, ако „Периметър“, които руснаците актуализират, се повреди и изстреля ядрени ракети по погрешка.

Така че проблемът е в това как автономните механизми вземат решения. В случая с ядрените оръжия залогът е очевидно самото ни съществуване. Но той остава главозамайващо висок и при всички останали „смъртоносни автономни оръжейни системи“ (lethal autonomous weapons systems – LAWS), както са известни роботите убийци.

Възможно е алгоритъмът да взима добри решения и да свежда до минимум смъртните случаи; затова някои противовъздушни системи вече използват AI – той е по-бърз и по-добър от хората. Но кодът може да даде грешка или – още по-страшно – да бъде програмиран така, че да увеличи до максимум страданията.

САЩ, които са най-напреднали технологично, до известна степен дават добър пример, но в друга - не. В своя ежегоден доклад за ядрената политика за 2022 г. властите посочват, че винаги ще има човек, който да участва във взимането на решения за изстрелвания. Досега нито Русия, нито Китай са давали такива заявки. Миналата година САЩ също така публикуваха и Политическа декларация за отговорното военно използване на изкуствения интелект и автономията. Приет от 52 страни, в него се призовава за всякакви видове предпазни механизми по отношение на LAWS.

Но не и за забраната им, обаче. И тук САЩ, както често и в международното право, биха могли да имат по-конструктивна роля. Конвенцията на ООН за някои конвенционални оръжия, която цели да ограничи използването на определени техники за убиване по време на войни – като използването на мини например – се опитва да забрани изцяло автономните роботи убийци. Но Вашингтон е сред актьорите, които са против забраната. Вместо това трябва да я подкрепят и да убедят Китай и другите страни да направят същото.

Но дори и светът да каже „не“ на LAWS, разбира се, AІ ще продължи да създава нови рискове. Ще ускори взимането на военни решения до такава степен, че хората да нямат вече време да оценят дадена ситуация и подложени на екстремен стрес или да правят фатални грешки, или да се предават пред алгоритъма. Това се нарича пристрастие по отношение на автоматизацията – психологическият процес, който, например, кара хората да оставят GPS-а да отведе колата им в езеро или надолу от върха на някоя скала.

Рискът се увеличава с всяко военно нововъведение, откакто Homo sapiens за първи път е завързал камък на върха на пръчка. И досега, в по-голяма степен, сме се научили да управляваме тези нови опасности. И ако се гарантира, че ние, хората, а не нашите роботи, ще бъдем тези, които да взимат финалните и най-съществени решения, все още има надежда, че ще еволюираме наред с AI, а няма да изчезнем заедно с него.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 11:34 | 17.03.24 г.
Специални проекти виж още
Най-четени новини
Още от Свят виж още

Коментари

Финанси виж още