Ето един въпрос, на който дори най-големите умове, подпомогнати от най-мощните машини, ще се затруднят да отговорят: в кой момент цената за обществото от неизползването на трансформираща технология надвишават очевидните рискове от използването й, пише Джон Торнхил за Financial Times.
Много обществено внимание с право се фокусира върху обезпокоителната употреба на изкуствения интелект (AI), като роботи-убийци или повсеместната технология за лицево разпознаване. Това доведе до искания за по-строга регулация, каквато сега се разработва в ЕС. Но това, което остава непознаваемо, са ползите, които могат да бъдат загубени за обществото, ако не се използва напълно AI по отговорен начин. Разбираемо се дърпаме при възможността технологичните компании да получат привилегирован достъп до поверителни медицински досиета. Ние обаче рядко отчитаме техния ценен принос за подпомагане бързото провеждане на кампаниите за ваксинация сред клинично уязвими групи по време на настоящата пандемия.
При разговора с Демис Хасабис, съосновател на Google DeepMind, трябва да се напомни за интелектуалното вълнение около технологиите. Както смята Хасабис, AI е съвършената обучаваща се машина с общо предназначение, която може да даде възможност на човечеството да се справи с най-големите предизвикателства на нашето време: здравеопазването, енергиеният преход и икономическа производителност. Мислете за изкуствения интелект като за най-полезния и неуморен асистент в изследванията.
Макар че DeepMind придоби световна известност чрез изграждане на системи за игра като AlphaGo, оттогава тя се фокусира върху по-сложни предизвикателства от реалния живот. Нейната система AlphaFold може да позволи на учените да моделират протеинови структури, обещавайки по-бързо откриване на лекарства. Компанията е помогнала за намаляване на потреблението на електроенергия в огромните центрове за данни на Google с повече от 30 процента, въпреки че мащабните AI модели остават ненаситни енергийни консуматори. Базираната в Лондон изследователска компания също така помогна за разработването на системи за преобразуване на текст в реч, които дават глас на нашите все по-разпространени дигитални асистенти.
Въпреки че някои експерти сочат, че възвръщаемостта от техниките за дълбоко обучение, използвани от DeepMind, сега намалява, Хасабис твърди, че само сме докоснали повърхността на потенциала на AI. „Той ще направи някои невероятни пробиви през следващите 10 плюс години, които наистина ще подобрят разбирането ни за природния свят“, казва той. Според него би било нехайно, ако в бъдеще не въоръжим всички лекари с най-новите медицински познания, които само AI може да предостави в мащаб.
Но областта на AI е все по-замъглена от противоречия относно алгоритмичните уклони, ерозията в неприкосновеността на личния живот, прекомерната концентрация на корпоративна власт и дългосрочната заплаха от излязло от контрол Супер разузнаване. От своя страна Хасабис подкрепя действия за установяване на по-ясни правила за използването на чувствителни данни. Той приема, че AI компаниите трябва да работят още по-усилено с гражданското общество, за да наложат етични насоки, и критикува „абсолютно нелепи приложения“ на технологията, включително решения за условни освобождавания и присъди, поради невъзможността да се репликира нюансираната човешка преценка. И казва, че трябва да се направят много съвместни изследвания с външни партньори за това какви цели и ценности да се заложат в AI системите през следващото десетилетие.
Но по-голямата загриженост е дали самите големи технологични компании са станали толкова доминиращи, че сега застрашават развитието на AI като публично благо, след като лишиха много университети от техните водещи изследователи. Един високопоставен технологичен изпълнителен директор казва, че се страхува от „приватизирана версия на Китай“, при която всезнаещите технологични компании научават повече за нас, отколкото ние знаем за себе си.
Въпреки съобщенията, че DeepMind е поискала по-голяма автономия от своята компания майка, Хасабис настоява, че връзката носи ползи. След като закупи DeepMind през 2014 г., Google помогна за разгръщането на нейните изследвания по начин, който иначе би бил немислим. Но други експерти по AI стигнаха до различно заключение: печалбите и етиката съжителстват некомфортно заедно. Група старши изследователи в OpenAI току-що напусна базираната в Сан Франциско изследователска компания, която разработи модела за езиково генериране GPT-3, за да стартира Anthropic, която се фокусира върху безопасността на AI. Твърди се, че изследователите са били обезпокоени от нарастващото корпоративно влияние върху OpenAI след инвестицията за 1 млрд. долара на Microsoft.
Използването на AI е твърде разнообразно и важно за всяко правителство, компания или изследователска организация, за да бъде определено. Но мотивът за печалба, който в момента е в основата на толкова много изследвания в тази област, рискува да изкриви резултатите. Публичният дебат за това къде се намира балансът между иновациите и регулациите може да е объркан, но е добре, че неизбежно става все по-гласовит.