Про це пише видання The Washington Post.
У матеріалі зазначається, що компанія ухвалила подібне рішення на тлі занепокоєнь з приводу дезінформації, що генерується штучним інтелектом.
“Ми працюємо над тим, щоб передбачити й запобігти відповідним зловживанням, таким як діпфейки або чат-боти, що видають себе за політиків”, – йдеться в повідомленні OpenAI.
Компанія, яка створює популярного чат-бота ChatGPT, генератор зображень DALL-E і надає технології ШІ багатьом компаніям, включно з Microsoft, заявила, що не дозволить людям використовувати свої технології для створення додатків для політичних кампаній і лобіювання, щоб перешкоджати людям голосувати або поширювати дезінформацію про процес голосування.
OpenAI також повідомила, що “на початку цього року” почне додавати вбудовані водяні знаки – інструмент для виявлення фотографій, створених штучним інтелектом – до зображень, зроблених за допомогою свого генератора зображень DALL-E.
Політичні партії роками використовували соціальні мережі для поширення неправдивої інформації та впливу на виборців. Але активісти, політики та дослідники ШІ висловили занепокоєння, що чат-боти та генератори зображень можуть збільшити витонченість та обсяг політичної дезінформації.
Заходи OpenAI з’явилися після того, як інші технологічні компанії також оновили свою виборчу політику, щоб впоратися з бумом ШІ.
У грудні 2023 року компанія Google заявила, що обмежить тип відповідей, які її ШІ-інструменти дають на питання, пов’язані з виборами. Компанія також наголосила, що вимагатиме від політичних кампаній, які купують у неї рекламу, повідомляти, коли вони використовують ШІ.
Материнська компанія Facebook Meta також вимагає від політичних рекламодавців повідомляти, чи використовували вони ШІ.
Раніше повідомлялося, що компанія OpenAI змінила правила використання своїх технологій, зокрема ChatGPT. Розробники видалили з політики використання заборони на застосування сервісів у військових цілях. До 10 січня 2024 року сторінка «Політики використання» OpenAI включала пряму заборону на «діяльність, яка має високий ризик фізичної шкоди, включно, зокрема, з «розробкою зброї» та «військовими діями».
Згодом стало відомо, що лабораторія досліджень штучного інтелекту OpenAI лише послабила обмеження на використання штучного інтелекту у воєнних цілях, а не зняла їх повністю. Зазначається, що у неоголошеному оновленні політики використання ШІ розробники скасували широку заборону на використання технології для «воєнних справ». Однак новий текст все ще забороняє використовувати служби OpenAI для розробки зброї, травмування людей або знищення майна.