fallback

Настоящи и бивши служители на OpenAI и DeepMind предупреждават за рисковете от AI

Те са изпратили отворено писмо, посочвайки, че финансовите мотиви на компаниите пречат на ефективния контрол

12:17 | 05.06.24 г.
Автор - снимка
Създател
Автор - снимка
Редактор

Група от настоящи и бивши служители в компании за изкуствен интелект (AI), включително OpenAI и Google DeepMind на Alphabet, изразиха загриженост относно рисковете, породени от технологията, предава Ройтерс.

В отворено писмо от група от 11 настоящи и бивши служители на OpenAI и един настоящ и друг бивш служител на Google DeepMind се казва, че финансовите мотиви на AI компаниите пречат на ефективния надзор.

„Не вярваме, че специално създадените структури на корпоративно управление са достатъчни, за да променят това“, се добавя в писмото.

Освен това текстът предупреждава за рисковете от нерегулирания изкуствен интелект, вариращи от разпространението на дезинформация до загубата на независими AI системи и задълбочаването на съществуващите неравенства, което може да доведе до „изчезване на човека“.

Изследователите са открили примери за генератори на изображения от компании, включително OpenAI и Microsoft, създаващи снимки с дезинформация, свързана с гласуването, въпреки политиките срещу такова съдържание.

Компаниите за изкуствен интелект имат „слаби задължения“ да споделят информация с правителствата относно възможностите и ограниченията на техните системи, се казва в писмото, като се допълва, че не може да се разчита на фирмите да споделят тази информация доброволно.

Отвореното писмо е поредното, което повдига въпроса за притесненията за безопасността на технологията за генеративен AI, която може бързо и евтино да създава близък до човешкия  текст, изображения и аудио.

Групата призовава фирмите за изкуствен интелект да улеснят настоящи и бивши служители да повдигат опасения, свързани с риска, и да не налагат споразумения за поверителност, които забраняват критиката.

Отделно, ръководената от Сам Алтман компания заяви, че е прекъснала пет тайни операции за влияние, които се опитват да използват нейните модели на изкуствен интелект за „измамна дейност“ в интернет.

Всяка новина е актив, следете Investor.bg и в Google News Showcase. Последна актуализация: 12:17 | 05.06.24 г.
fallback
Още от Софтуер виж още