більшість випадків використання ШІ не спрямовані на обман, а оманливий контент усе ж дешевше відтворити без штучного інтелекту.

Політична дезінформація не є проблемою штучного інтелекту — дослідження

Понеділок, 16 Грудня, 2024

Дослідження

Вероніка Нановська

Дезінформація, яку генерує штучний інтелект, вважали однією з головних проблем під час президентських виборів у США 2024 року. Проте виявили, що більшість випадків використання ШІ не спрямовані на обман, а оманливий контент усе ж дешевше відтворити без штучного інтелекту. 

Аналіз провели кандидат наук із комп’ютерних наук у Прінстонському університеті Саяш Капур і професор комп’ютерних наук у Прінстонському університеті Арвінд Нараянан.

Що досліджували

У січні 2024 року Всесвітній економічний форум заявив, що «дезінформація є найсерйознішим короткостроковим ризиком, із яким стикається світ», і що «ШІ посилює маніпульовану та спотворену інформацію, яка може дестабілізувати суспільства». 

Саме тому поява нових інструментів штучного інтелекту часто супроводжується побоюваннями, що вони спричинять нові хвилі дезінформації.

Дослідники використовували дані WIRED AI Elections Project, в яких проаналізували 78 випадків використання штучного інтелекту. Вони визначили, для чого використовувався ШІ, й оцінили вартість створення подібного контенту без його допомоги.

Кожен випадок класифікували залежно від того, чи був намір ввести в оману.:

Що показало дослідження

Згідно з дослідженням, у 39 з 78 випадків у базі даних не було наміру ввести в оману.

Найпоширенішим випадком використання ШІ в політичних цілях було використання його в передвиборчій агітації. Здебільшого (у 19 з 22 випадків), щоб покращити агітаційні матеріали, а не ввести виборців в оману за допомогою неправдивої інформації. Наприклад, у Каліфорнії кандидат, хворий на ларингіт (запалення слизових оболонок гортані), використовував клонування голосу за допомогою штучного інтелекту, щоб зачитувати надруковані повідомлення своїм голосом під час зустрічей із виборцями.

Для кожного з 39 прикладів оманливих намірів проєкт оцінив вартість створення аналогічного контенту без використання ШІ (наприклад, через наймання фахівців із Photoshop, відеомонтажерів або акторів озвучення). У кожному випадку вартість створення подібного контенту без ШІ була скромною — не більше кількох сотень доларів. Наприклад, в одному відео за допомогою акторів театру неправдиво стверджувалося, що віцепрезидентка США і кандидатка в президенти від Демократичної партії Камала Гарріс була причетна до наїзду на людину. В іншому відео сповільнили її промову, щоби створити враження, ніби вона нерозбірливо вимовляє слова. Такий медіаконтент отримав назву «дешеві фейки» (на відміну від дипфейків, створених ШІ).

Наприклад, у дописі Дональда Трампа в соцмережі Truth Social було зображення шанувальників Тейлор Свіфт у футболках «Swifties for Trump» («Свіфті за Трампа»). Невідомо, чи створили це зображення за допомогою штучного інтелекту, проте точно відтворити подібні зображення можна без нього: за допомогою редагування фото або роздаючи безплатні футболки на мітингу.

Ще один приклад — клон голосу президента Джо Байдена, який просив людей не голосувати на передвиборах у Нью-Гемпширі. Оскільки рободзвінок використовував статичний запис, його можна було б зробити так само легко без використання ШІ. Наприклад, найнявши голосових імітаторів.

Також незрозуміло, який вплив мав рободзвінок: ефективність дипфейку залежить від того, наскільки одержувач повірить, що президент Сполучених Штатів особисто телефонує йому і просить не голосувати на праймериз.

Попит на дезінформацію

Дослідники кажуть, що поки люди мають певний світогляд, вони шукатимуть і знаходитимуть інформацію, яка відповідає цим поглядам. «Дешеві фейки» можуть бути ефективними для поширення дезінформації, попри їхню низьку якість: набагато легше переконати когось у дезінформації, якщо він уже погоджується з її меседжем.

В усіх країнах, де відбулися вибори 2024 року, дезінформація за допомогою ШІ мала набагато менший вплив, ніж очікувалося. В Індії дипфейки використовували більше для тролінгу, ніж для поширення неправдивої інформації. В Індонезії вплив ШІ був не в поширенні неправдивої інформації, а в пом’якшенні іміджу тодішнього кандидата (за допомогою згенерованих ШІ цифрових мультяшних аватарів, які зображували його як симпатичного).

Думати про політичну дезінформацію як про технологічну проблему (або проблему штучного інтелекту) привабливо, тому що рішення цієї проблеми здається легким. Проте хоча покращення інформаційного середовища важлива, звинувачення технологій — це не розв’язання проблеми. Потрібно зважати на низку структурних змін у тому, як люди шукають і споживають інформацію:

Професор історії Сем Лебович зазначив, що швидкого технічного виправлення або цілеспрямованого регулювання, яке могло б «розв’язати» наші інформаційні проблеми, немаєує, тому, на його думку, ми маємо відкинути спокусу звинувачувати ШІ в політичній дезінформації.

дезінформація | дипфейки | ШІ