Американският технологичен гигант Nvidia обяви, че обединява сили с Microsoft за изграждането на „огромен“ компютър, който да се справя с интензивните изчислителни процеси, свързани с изкуствения интелект в облака, предава Ройтерс.
Компютърът с изкуствен интелект ще работи в облака Azure на Microsoft, използвайки десетки хиляди графични процесори, най-мощният H100 на Nvidia и нейните чипове A100. Nvidia отказва да сподели стойността на сделката, но източници от индустрията казват, че всеки от чиповете A100 е на цена от 10 хил. до 12 хил. долара, а H100 е много по-скъп.
„Намираме се в тази повратна точка, в която изкуственият интелект идва в предприятията и изкарва на преден план услугите, които клиентите могат да използват за внедряване на изкуствен интелект за бизнес употреба“, коментира Иън Бък, генерален мениджър за Hyperscale и HPC в Nvidia. „Наблюдаваме голямо насочване към изкуствения интелект... и необходимостта от прилагане на изкуствен интелект за корпоративни цели“.
В допълнение към продажбата на чипове на Microsoft Nvidia твърди, че ще си партнира с гиганта в софтуера и облачните услуги и за разработката на модели изкуствен интелект. Бък казва, че Nvidia също така ще бъде клиент на компютъра с изкуствен интелект на Microsoft, както и ще разработва приложения върху него, за да предлага услуги на клиентите.
Бързото развитие на моделите изкуствен интелект рязко повиши търсенето на по-бърза и по-мощна изчислителна инфраструктура.
Nvidia заяви, че Azure ще бъде първият публичен облак, който ще използва мрежовата ѝ технология Quantum-2 InfinitiBand, която предлага скорост от 44 гигабита в секунда. Тази технология дава възможност за свързване на сървъри с изключително висока скорост. Това е важно, тъй като тежката изчислителна работа с изкуствен интелект изисква хиляди чипове, които работят заедно в няколко сървъра.