Компанія OpenAI 30 травня опублікувала свій перший звіт про те, як її інструменти штучного інтелекту використовують для операцій прихованого впливу. Вона зірвала дезінформаційні кампанії Росії, Китаю, Ізраїлю та Ірану. Деталі переповідає The Guardian.
Як ШІ використовують для дезінформації?
Як ідеться у 39-сторінковому звіті OpenAI, моделі штучного інтелекту використовували для створення й розміщення пропагандистського контенту в соцмережах. Згідно зі звітом, жодна з кампаній не набула популярності й не охопила велику авдиторію.
У звіті також підкреслюється, що генеративний ШІ використовують у дезінформаційних кампаніях, щоб поліпшити певні аспектів створення контенту, наприклад, для більш переконливих постів та їхнього перекладу іноземними мовами. Але ШІ не є єдиним інструментом пропаганди.
«Усі ці операції певною мірою використовували штучний інтелект, але жодна з них не використовувала виключно його», — підсумовується у звіті.
Які країни залучені до операцій прихованого впливу?
OpenAI стверджує, що її дослідники виявили й заблокували акаунти, пов’язані з п’ятьма операціями прихованого впливу за останні три місяці.
У Росії дві операції створювали й поширювали контент із критикою США, України й кількох країн Балтії. Одна з них використовувала модель OpenAI для налагодження коду та створення бота, який публікував повідомлення в Telegram.
Під час китайської операції впливу створювали текст англійською, китайською, японською й корейською мовами, який розміщували в X і Medium.
Іранці створювали статті з нападками на США та Ізраїль, які потім переклали англійською та французькою мовами.
Ізраїльська політична фірма під назвою Stoic керувала мережею фейкових акаунтів у соцмережах, які створювали різноманітний контент, зокрема пости, що звинувачували в антисемітизмі протести американських студентів проти війни Ізраїлю й Гази.
Деякі з розповсюджувачів дезінформації, яким OpenAI заборонив доступ до своєї платформи, вже були відомі дослідникам і владі. У березні 2024 року Міністерство фінансів США наклало санкції на двох росіян, які нібито стояли за однією з кампаній, виявлених OpenAI.
За останній рік дезінформатори використовували генеративний ШІ в різних країнах світу, намагаючись впливати на політику та громадську думку. Підроблені аудіозаписи, зображення, створені штучним інтелектом, і текстові кампанії використовувалися для зриву виборчих кампаній, що призвело до посилення тиску на ШІ-розробників на кшталт OpenAI з вимогою обмежити використання їхніх інструментів.
У OpenAI додали, що планують періодично публікувати подібні звіти про операції прихованого впливу, а також видаляти акаунти, які порушують її політику.