Nvidia използва годишната си конференция за разработчици, за да напомни на технологичната индустрия за своя статут на лидер на пазара на чипове за изкуствен интелект, като представи нови предложения, като например базирана в облака услуга за суперкомпютри, която позволява на клиентите да имат достъп до десетки хиляди нейни чипове за графична обработка и софтуер за изпълнение на мащабни изчислителни задачи.
На фона на вълната от популярност на ChatGPT и други продукти с изкуствен интелект Nvidia представи нови чипове, суперкомпютърни услуги и редица важни партньорства във вторник, които имат за цел да покажат как нейната технология ще стимулира следващата вълна от пробиви в областта на изкуствения интелект.
В своята реч по време на събитието основателят и главен изпълнителен директор на Nvidia Дженсън Хуан нарече навлизането на Nvidia като двигателя, който стои зад „момента на iPhone в изкуствения интелект", както той започна да нарича този преломен момент в изчислителната техника. Насърчен от бума на потребителски и корпоративни приложения, като усъвършенствани чатботове и впечатляващи графични генератори, „генеративният ИИ ще преоткрие почти всяка индустрия", каза Хуан, цитиран от Bloomberg.
Идеята е да се изгради инфраструктура, която да направи приложенията с изкуствен интелект по-бързи и по-достъпни за клиентите. Графичните процесори на Nvidia се превърнаха в мозъка на ChatGPT и други подобни, като им помагат да обработват все по-големи обеми от данни за обучение. През миналата седмица Microsoft Corp. разкри, че се е наложило да използва десетки хиляди графични процесори A100 на Nvidia в центровете за данни, за да се справи с изчислителното натоварване в облака за OpenAI, разработчика на ChatGPT.
Други технологични гиганти следват примера с подобни колосални облачни инфраструктури, предназначени за ИИ. Oracle Corp. обяви, че нейната платформа ще разполага с 16 хил. графични процесора Nvidia H100, наследник на A100, за високопроизводителни изчислителни приложения, а Nvidia заяви, че предстояща система от Amazon Web Services ще може да се мащабира до 20 хил. свързани H100. Microsoft също започна да добавя H100 в своите сървърни шкафове.
Тези видове суперклъстери от чипове са част от стремежа на Nvidia да отдава под наем суперкомпютърни услуги чрез нова програма, наречена DGX Cloud, която се хоства от Oracle, а скоро и от Microsoft Azure и Google Cloud. Nvidia заяви, че целта е достъпът до суперкомпютър за изкуствен интелект да бъде толкова лесен, колкото отварянето на уебстраница, като се даде възможност на компаниите да обучават своите модели, без да се нуждаят от локална инфраструктура, която е скъпа за инсталиране и управление.„Предоставяте задачата си, посочвате набора си от данни и натискате бутона "старт" - и цялата оркестрация и всичко под нея е поето", казва Манувир Дас, вицепрезидент на Nvidia за корпоративни изчисления. Цената на услугата DGX Cloud ще започне от 36 999 долара на инстанция на месец, като всяка „инстанция" - по същество количеството изчислителна мощност, което се наема - се равнява на осем графични процесора H100.
Nvidia представи и два нови чипа, единият от които е насочен към подобряване на производителността на видео с изкуствен интелект, а другият е подобрение на H100.
Последният графичен процесор е създаден специално за подобряване на разгръщането на големи езикови модели като тези, използвани от ChatGPT. Наречен H100 NVL, той може да работи 12 пъти по-бързо при обработката на отговорите - т.е. как ИИ отговаря на заявките от реалния живот - в сравнение с предишното поколение A100 в мащаба на центровете за данни.
Иън Бък, вицепрезидент на отдела за хипермащабни и високопроизводителни изчисления в Nvidia, заяви, че това ще помогне за „демократизиране на случаите на използване на ChatGPT и ще предостави тази възможност на всеки сървър и всеки облак“.