IMG Investor Dnes Bloombergtv Bulgaria On Air Gol Tialoto Az-jenata Puls Teenproblem Automedia Imoti.net Rabota Az-deteto Blog Start Posoka Boec Megavselena.bg

Meta предлага AI модел, който може да проверява колко добре работят други модели

Целта е хората да участват по-малко в разработката на изкуствения интелект

11:22 | 21.10.24 г. 1
Снимка: Gabby Jones/Bloomberg
Снимка: Gabby Jones/Bloomberg

Компанията майка на Facebook – Meta, заяви, че пуска редица нови модели с изкуствен интелект (AI) от своето изследователство звено, включително Self-Taught Evaluator, който може да предложи път към по-малко човешко участие в разработването на AI, предава Ройтерс.

Това се случва, след като Meta представи инструмента в документ през август, където описва как той разчита на същата техника на „верига от мисли“, използвана от наскоро пуснатите о1 модели на OpenAI, за да прави надежни преценки относно отговорите на моделите.

Тази техника включва разбиването на сложни проблеми на по-малки логически стъпки и изглежда подобрява точността на отговорите на предизвикателни проблеми в сфери като науката, програмирането и математиката.

Изследователите на Meta са използвали изцяло генерирани от AI данни, за да обучат модела за оценяване, като са елиминиралии човешкия принос на този етап.

Способността на AI да оценява изкуствен интелект дава поглед към един потенциален път към изграждането на автономни агенти, които могат да се учат от собствените си грешки, посочват пред Ройтерс двама от изследователите на Meta относно проекта.

Мнозина в областта на изкуствения интелект си представят такива агенти като дигитални асистенти, които са достатъчно интелигентни, за да изпълняват широк набор от задачи без човешка намеса.

Самоусъвършенстващите се модели биха могли да премахнат необходимостта от често скъпия и неефективен процес, използван днес и наречен Reinforcement Learning from Human Feedback (RLAIF), който изисква принос от човешки анотатори, които трябва да имат специализиран опит, за да етикетират данните точно и да потвърдят, че отговорите на сложни математически и писмени заявки са коректни.

„Самообучението и способността за самооценка са от решаващо значение за идеята за достигане до този вид свръхчовешко ниво на AI“, казва Джейсън Уестън, един от изследователите.

Други компании, включително Google и Anthropic, също публикуваха изследвания върху концепцията за RLAIF. За разлика от Meta обаче, тези компании са склонни да не пускат своите модели за обществено ползване.

Другите AI инструменти, пуснати от Meta, включват актуализация на модела Segment Anything за идентификация на изображения на компанията - инструмент, който ускорява времето за генериране на отговор на големите езикови модели и набори от данни, които могат да се използват за подпомагане на откриването на нови неорганични материали.

Всяка новина е актив, следете Investor.bg и в Google News Showcase.
Последна актуализация: 11:22 | 21.10.24 г.
Най-четени новини
Още от Софтуер виж още

Коментари

1
rate up comment 0 rate down comment 0
evlogi
преди 1 час
Иии, яко ще е.Един ИИ ще създава ИИ, друг ИИ ще го проверява, трети ИИ ще го ползва.Идеално се получава, нас поне няма да ни занимават с глупости..
отговор Сигнализирай за неуместен коментар
Финанси виж още