fallback

AI е изправен пред своя „Опенхаймер“ в надпреварата за създаване на роботи убийци

Във военните конфликти се ползва все повече нови технологични решения

08:34 | 06.05.24 г. 1
Автор - снимка
Създател
Автор - снимка
Редактор

Регулаторите, които искат да овладеят възникващото поколение машини за убиване, работещи с изкуствен интелект, може да нямат много време да го направят, са били предупредени правителствата, съобщава Bloomberg.

Докато автономните оръжейни системи бързо се разпространяват, включително на бойните полета в Украйна и Газа, алгоритмите и безпилотните летателни апарати вече помагат на военните плановици да решат дали да ударят определени цели, или не. Скоро това решение може да бъде възложено изцяло на машините.

„Това е опенхаймерският момент на нашето поколение“, казва австрийският министър на външните работи Александър Шаленберг, визирайки Дж. Робърт Опенхаймер, който помага за изобретяването на атомната бомба през 1945 г, преди по-късно да започне да се застъпва за контрола върху разпространението на ядрени оръжия.

Цивилни, военни и технологични представители от над 100 държави се събраха миналата седмица във Виена, за да обсъдят как техните икономики могат да контролират сливането на изкуствения интелект (AI) с военните технологии – два сектора, които привличат инвеститорите, а това помогна за изкачването на оценките на акциите до исторически върхове.

Разгръщането на глобален конфликт, комбинирано с финансови стимули за компаниите да популяризират AI, допълва предизвикателството да се контролират роботите убийци, смята Яан Талин, ранен инвеститор в AI платформата на Alphabet – DeepMind Technologies.

„Стимулите на Силициевата долина може да не са съобразени с останалата част от човечеството“, допълва Талин.

Правителствата по света предприеха стъпки за сътрудничество с компании, интегриращи AI инструменти в отбраната. Пентагона налива милиони долари в старъпи за изкуствен интелект. По-рано през април Европейският съюз плати на Thales да създаде база данни с изображения, за да помогне при оценката на целите на бойното поле.

Базираното в Тел Авив списание „+972 Magazine” този месец съобщи, че Израел е използвал програма с изкуствен интелект, наречена Lavender, за да зададе цели за убийства. След статията, която Израел оспори, генералният секретар на ООН Антонио Гутериш каза, че е „дълбоко обезпокоен“ от информацията за използването на AI във военната кампания в Газа и че никаква част от решенията за живот и смърт не трябва да се делегират на студените изчисления на алгоритмите.

„Бъдещето на ботовете за убиване е тук“, коментира Антъни Агире, физик, който прогнозира по какъв път ще поеме технологията в късометражен филм от 2017 г., гледан от над 1,6 млн. зрители. „Нуждаем се от договор за контрол на въоръженията, договорен от Общото събрание на ООН“, посочва той.

Но привържениците на дипломатическите решения вероятно ще бъдат разочаровани, поне в краткосрочен план, смята Александър Кмент, висш служители по разоръжаването на Австрия.

„Класическият подход към контрола на въоръженията не работи, защото не говорим за единична оръжейна система, а за комбинация от технологии с двойна употреба“, посочва той в интервю.

Вместо да сключат нов договор за „magnum opus“, Кмент намекна, че държавите може да бъдат принудени да се справят с правните инструменти, които вече са на тяхно разположение. Налагането на контрол върху износа и хуманитарните закони могат да помогнат за задържане разпространението на оръжейни системи с изкуствен интелект, твърди той.

В по-дългосрочен план, след като технологията стане достъпна за недържавни участници и потенциално за терористи, страните ще бъдат принудени да напишат нови правила, прогнозира външният министър на Коста Рика Арнолдо Андре Тиноко.

„Лесният достъп до автономни оръжия премахва ограниченията, които гарантираха, че само малцина могат да влязат в надпреварата във въоръжаването“, посочва той. „Сега студенти с 3D принтер и основни познания по програмиране могат да правят дронове с капацитет да причиняват масови убийства. Автономните оръжейни системи завинаги промениха концепцията за международната стабилност“, допълва още.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 01:10 | 06.05.24 г.
fallback
Още от Новини и анализи виж още