Главният изпълнителен директор на Meta Марк Зукърбърг заяви, че компанията приближава "по-близо" едни до други своите екипи, изследващи изкуствения интелект (AI), предава Ройтерс. По този начин компанията залага силно на използването на технологията в своите продукти.
Социалната мрежа изгражда своя инфраструктура, за да обезпечи тези усилия и планира да достигне около 350 хил. графични чипа H100 от Nvidia до края на годината, посочи Зукърбърг в публикация в Instagram и Threads.
В комбинация с еквивалентни чипове от други доставчици Meta ще има общо 600 хил. графични чипа до края на годината, сподели той.
Този брой ще направи системата на Meta, когато бъде завършена, една от най-големите в технологичната индустрия.
За сравнение миналата есен Amazon заяви, че изгражда система със 100 хил. от своите чипове Trainium2, докато Oracle изгради онлайн система с 32 хил. чипа H100 на Nvidia.
Говорител на Meta отказва да уточни кои са доставчиците на процесорите, които компанията използва, отвъд пазарния лидер Nvidia, макар че публично е казвала, че планира да ползва чипове и от AMD. Ройтерс по-рано писа, че компанията разработва и собствени чипове.
През последната година Meta се опитва да изгради своя изчислителен арсенал, за да подсили ролята си в сферата на генеративния изкуствен интелект, след като години наред произвеждаше изследвания на технологията със своя екип FAIR, но насочи фокуса си към изграждането на основните си социални мрежи и устройства с добавена и виртуална реалност.
Миналата година компанията създаде "GenAI" екип, който да ръководи усилията ѝ в сферата, след успеха на ChatGPT, който OpenAI пусна в края на 2022 г.
Оттогава Meta пусна търговска версия на своя голям езиков модел Llama, рекламни инструменти и чатбота Meta AI, който може да бъде достъпен директно през умните очила на компанията и Ray-Ban.
В новата си публикация Зукърбърг посочва, че в момента компанията обучава третата версия на модела Llama.