Съоснователят на Microsoft Бил Гейтс вярва в потенциална на изкуствения интелект, като често повтаря, че вярва, че модели като този в основата на ChatGPT са най-важният напредък в технологиите от появата на персоналния компютър до днес, пише CNBC.
Развитието на технологията може да доведе до проблеми като създаването на дълбоки фалшификации, предубедени алгоритми и измами в училище, смята той, но прогнозира, че проблемите, произтичащи от изкуствения интелект (ИИ), са решими.
„От всичко, написано досега за рисковете от изкуствения интелект, а то е доста, е ясно едно – че никой няма всички отговори“, написа Гейтс в публикация в блог тази седмица. „Друго нещо, което ми е ясно, е, че бъдещето на ИИ не е толкова мрачно, колкото си мислят някои хора, нито е толкова розово, колкото си мислят други“.
Гейтс има шанс да измести дебата около технологията от сценариите за края на света към по-ограничените регулации, насочени към настоящите рискове, точно когато правителствата по света се чудят как да регулират технологията и потенциалните проблеми, които тя може да донесе.
Бил Гейтс е един от най-изявените гласове, когато става дума за изкуствения интелект и регулацията му. Освен това той все още е тясно свързан с Microsoft, която инвестира в OpenAI и интегрира своя чатбот ChatGPT в основните си продукти, включително в Office.
В публикацията в блога Гейтс посочва как обществото е реагирало на предишни постижения, за да изтъкне, че хората са се адаптирали към големи промени в миналото и ще го направят и заради изкуствения интелект.
„Това ще има голямо въздействие върху образованието например, но същото направиха и калкулаторите преди няколко десетилетия, а след това и допускането на компютри в класните стаи“, пише Гейтс.
„Скоро след като първите автомобили тръгват по пътя, се случва и първата автомобилна катастрофа. Но ние не забранихме колите – ние приехме ограничения на скоростта, стандарти за безопасност, изискващи лицензиране, закони за шофиране в нетрезво състояние и други правила за движение по пътищата“, допълва той.
Гейтс е притеснен от някои предизвикателства, произтичащи от навлизането на технологията, включително как тя може да промени работните места и „халюцинациите“, или склонността на модели като ChatGPT да измислят факти, документи и хора.
Например той изтъква проблема с дълбокото фалшифициране на видеа, при което се използват модели с изкуствен интелект, позволяващи на хората лесно да правят фалшиви видеоклипове, в които се представят за други хора. Такъв тип манипулирано съдържание може да бъде използвано за измама на хора или за повляване на избори, пише той.
Но също така подозира, че потребителите ще станат по-добри в идентифицирането на подобни неща, визирайки системи за засичане на такива манипулации, разработени от Intel и DARPA. Той предлага регламент, който ясно да очертае какъв вид дълбоки фалшификати е законно да се правят.