Администрацията на Джо Байдън събира мнения относно потенциалните мерки за отчетност на системите с изкуствен интелект (ИИ), тъй като изникват въпроси относно влиянието върху националната сигурност и образованието, предава Ройтерс.
ChatGPT, програма с изкуствен интелект, която наскоро привлече общественото внимание със способността си да генерира бързи отговори на широк спектър от запитвания, по-специално попада във фокуса на властите в САЩ, тъй като се превърна в най-бързо растящото потребителско приложение в историята. То има над 100 млн. активни потребители месечно.
Националната администрация по телекомуникации и информация (NTIA), агенция към Министерството на търговията, която съветва Белия дом относно телекомуникационната и информационната политика, иска данни, тъй като има „нарастващ регулаторен интерес“ за създаването на „механизъм за отчетност“ на изкуствения интелект.
Агенцията иска да знае дали има мерки, които могат да бъдат въведени, за да гарантират сигурност, „че системите с изкуствен интелект са законни, ефективни, етични, безопасни и като цяло надеждни“.
„Отговорните системи с изкуствен интелект биха могли да донесат огромни ползи, но само ако обърнем внимание на потенциалните последици и вреди. За да могат тези системи да разгърнат пълния си потенциал, компаниите и потребителите трябва да могат да им се доверят“, коментира Алън Дейвидсън от NTIA.
Миналата седмица президентът Джо Байдън заяви, че предстои да се разбере дали изкуственият интелект е опасен. „Според мен технологичните компании носят отговорността да се убедят, че продуктите им са безопасни, преди да ги направят публични“, коментира той.
ChatGPT, който изненада някои потребители с бързите отговори на въпроси и ядоса други с неточностите си, е създаден от базираната в Калифорния OpenAI и се радва на финансова подкрепа от Microsoft.
NTIA планира да изготви доклад, тъй като разглежда „усилията за гарантиране, че системите с изкуствен интелект работят, както се твърди – и без да причиняват вреда“. Освен това посочва, че ще работи с администрацията на Байдън за гарантиране на всеобхватен подход към свързаните с ИИ рискове и възможности.