Alphabet Inc предупреждава служителите си как да използват чатботове, включително собствения си Bard, като в същото време продава програмата по целия свят, съобщава Ройтерс, позовавайки се начетирима души, запознати с въпроса.
Компанията майка на Google е посъветвала служителите си да не въвеждат нейни поверителни материали в чатботове с изкуствен интелект, казват източниците, а компанията потвърди това,позовавайки се на дългогодишната политика за опазване на информацията.
Чатботовете, като например Bard и ChatGPT, са програми с човешко звучене, които използват т.нар. генеративен изкуствен интелект, за да водят разговори с потребителите и да отговарят на множество запитвания. Човешки рецензенти могат да четат чатовете, а изследователи са установили, че подобен изкуствен интелект може да възпроизвежда данните, които е усвоил по време на обучението, което създава риск от изтичане на информация.
Alphabet също така е предупредила инженерите си да избягват директното използване на компютърен код, който чатботовете могат да генерират.
Потърсена за коментар, компанията заяви, че Bard може да прави нежелани предложения за код, но въпреки това помага на програмистите. Google също така заяви, че има за цел да бъде прозрачна по отношение на ограниченията на своята технология.
Опасенията показват как Google иска да избегне вредиte за бизнеса от софтуера, който е пуснала в конкуренция с ChatGPT. Залогът в надпреварата на Google с инвеститорите в ChatGPT - OpenAI и Microsoft Corp, са инвестиции за милиарди долари и все още неизчислени приходи от реклама и облачни услуги, които се получават от новите програми за изкуствен интелект.
Предпазливостта на Google отразява и онова, което се превръща в стандарт за сигурност за корпорациите, а именно - да предупреждават персонала за използването на публично достъпни програми за чат.
Все по-голям брой компании по света създават предпазни правила за дейността с чатботовете с изкуствен интелект, сред които Samsung, Amazon.com и Deutsche Bank. Твърди се, че Apple, която не е отговорила на запитванията за коментар на Ройтерс, също е направила това.
Около 43 % от професионалистите са използвали ChatGPT или други инструменти за изкуствен интелект през януари, често без да казват на шефовете си, става ясно от проучване сред близо 12 000 респонденти, включително от водещи американски компании, направено от социалната мрежаFishbowl.
През февруари Google е казала на персонала, който тества Bard преди пускането му на пазара, да не му дава вътрешнофирмена информация, съобщава Insider. Сега Google разпространява Bard в повече от 180 страни и на 40 езика като трамплин за творчество, а предупрежденията се разпростират и върху предложенията за код.
Google заяви пред Ройтерс, че е провела подробни разговори с Комисията за защита на данните на Ирландия и отговаря на въпросите на регулаторите, след като във вторник Politico съобщи, че компанията отлага пускането на Bard в ЕС тази седмица в очакване на повече информация за въздействието на чатбота върху неприкосновеността на личния живот.
Опасения за чувствителната информация
Подобна технология може да изготвя имейли, документи и дори софтуер, като обещава да ускори значително изпълнението на задачите. Но в комуникацията може да бъде включена дезинформация, чувствителни данни или дори пасажи от романа "Хари Потър", защитени с авторски права.
В съобщението за поверителност на Google, актуализирано на 1 юни, се посочва и да „не включвате поверителна или чувствителна информация в разговорите си с Bard“.
Някои компании са разработили софтуер за справяне с подобни опасения. Например Cloudflare, която защитава уебсайтовете от кибератаки и предлага други облачни услуги, предлага на пазара възможност за предприятията да маркират и ограничават разпространяването на някои данни навън.
Google и Microsoft също предлагат на бизнес клиентите инструменти за разговори, които ще бъдат с по-висока цена, но ще се въздържат от поглъщане на данни в публични модели на изкуствен интелект. Настройката по подразбиране в Bard и ChatGPT е да се запазва историята на разговорите на потребителите, която те могат да изберат да изтрият.
„Логично е" компаниите да не искат служителите им да използват публични чатботове за работа, казва Юсуф Мехди, главен маркетинг директор за потребителите на Microsoft. Tехнологията на чатботовете може да изготвя имейли, документи и дори софтуер, като обещава да ускори значително изпълнението на задачите. Снимка: Bloomberg
„Компаниите заемат надлежно консервативна позиция", каза Мехди, обяснявайки как безплатният чатбот Bing на Microsoft се сравнява с корпоративния софтуер. „Там нашите политики са много по-строги“.
Microsoft отказва да коментира дали има обща забрана за служителите да въвеждат поверителна информация в публични програми за изкуствен интелект, включително и в собствената си, въпреки че друг ръководител от компанията пояснява неофициално пред Ройтерс, че той лично ограничава използването му.
Матю Принс, главен изпълнителен директор на Cloudflare, заяви, че „въвеждането на поверителни въпроси в чатботовете е все едно да пуснете група кандидат-докторанти да се ровят във всичките ви лични документи".