З наближенням президентських виборів у США 2024 року технологічні гіганти намагаються знайти баланс між обмеженням дезінформації та захистом політичних висловлювань користувачів. Зокрема, в червні 2023 року YouTube офіційно змінив свою політику щодо дезінформації на виборах і оголосив, що відео, які пропагують неправдиву інформацію про вибори, не видалятимуться. Цей крок викликав занепокоєння експертів із цифрової дезінформації.
PolitiFact від Poynter Institute for Media Studies проаналізував стан політики щодо дезінформації на виборах у YouTube, Twitter, TikTok та Meta. Автори дослідження з’ясували, що більшість політик не змінилася з часу проміжних виборів 2022 року, проте правозастосування було непослідовним, а платформи, як-от Twitter і Meta, скоротили персонал, який модерує контент. Переповідаємо висновки дослідження.
YouTube
Дослідники з Центру соціальних медіа та політики Нью-Йоркського університету виявили, що більш сувора політика, запроваджена YouTube протягом кількох тижнів після виборів 2020 року, позитивно вплинула на всі соціальні медіаплатформи.
Команда PolitiFact відстежувала контент, пов’язаний із виборами, який репостили з YouTube у Twitter. З 8 до 21 грудня 2020 року — приблизно через місяць після виборів — уперше частка неправдивого тематичного контенту з YouTube, який поширювався на Twitter, після виборів опустилася нижче 20 %. Цей показник знову знизився після того, як у січні 2021 року YouTube оголосив про запровадження системи «трьох ударів», за якою канали, що тричі порушують правила спільноти, видаляються. До дня інавгурації в січні 2021 року частка неправдивого виборчого контенту з YouTube, який репостили в Twitter, знизилася до 5 %. Аналогічні тенденції спостерігалися і в Facebook.
У заяві YouTube від 2 червня йдеться про важливість відкритих політичних дебатів як ключової мотивації для зміни політики. У компанії вважають, що хоча видалення цього контенту і стримує певну дезінформацію, це також може обмежувати політичні виступи. Водночас платформа збереже інші правила. Зокрема, надання пріоритету авторитетним результатам пошуку та видалення дезінформації про час, місце та дійсність варіантів голосування.
У пресрелізі мало йдеться про те, як YouTube реагуватиме на дезінформацію про вибори 2024 року, але зазначено, що в разі потреби у стратегію внесуть корективи.
Читайте також: Як YouTube рекомендує відео та чи правдиві теорії про ідеологічно заангажовані алгоритми
Підхід Twitter до дезінформації також змінився після того, як 2022 року компанію очолив Ілон Маск, який називає себе захисником свободи слова. Компанія скоротила штат співробітників, відповідальних за боротьбу з дезінформацією. У листопаді торік компанія звільнила приблизно 15 % своєї команди з питань довіри та безпеки, яка модерує контент і регулює мову ворожнечі. У січні відбулися подальші скорочення, які стосувалися щонайменше десятка членів цих команд.
Письмові інструкції платформи щодо виборів не змінилися. У них ідеться про те, що люди не можуть використовувати Twitter для маніпуляцій або втручання у вибори, а дописи, що містять дезінформацію, можуть видалити або позначити за допомогою функції «Нотатки спільноти». Функція нотаток дає змогу користувачам додавати контекст і джерела до неточних дописів.
Однак аналіз Associated Press, показав, що після того, як 10 травня Трамп виступив на сесії питань і відповідей на CNN з неправдивими заявами, десять найбільш поширених твітів, які просували наратив про «фальсифікацію виборів», поширювалися безконтрольно. Ці твіти зібрали понад 43 000 ретвітів і не отримали жодних коментарів від спільноти. Twitter також не відповів на запит про коментар.
TikTok
Політика TikTok щодо доброчесності виборів передбачає три способи боротьби з дезінформацією: видалення контенту, перенаправлення результатів пошуку та зменшення показів. TikTok повідомляє, що заяви, спрямовані на підрив довіри до державних інституцій, такі як неправдива інформація про дати виборів або спроби придушення волі виборців, видалятимуться.
TikTok співпрацює з 15 глобальними організаціями з перевірки фактів, зокрема і з PolitiFact, які оцінюють контент для модераторів та політичних команд платформи. Потім TikTok використовує цю інформацію для застосування своєї політики щодо дезінформації.
У звіті про прозорість компанії за лютий 2021 року йдеться, що у США від 1 липня до 31 грудня 2020 року видалили 347 225 відео, які містили дезінформацію про вибори, дезінформацію або маніпуляції від медіа. Ще 441 028 відео не рекомендували користувачам у стрічках «Для вас» після перевірки фактчекерами.
Для порівняння, за три місяці наприкінці весни 2022 року на платформу завантажили 11 млрд відео.
Нещодавнє дослідження показало, що дезінформація про вибори все ще залишається проблемою в TikTok. 2022 року дослідники з правозахисної організації Global Witness і команда «Кібербезпека для демократії» створили фіктивні акаунти для розміщення в соцмережах оголошень із політичною дезінформацією. TikTok виявився не в найкращому становищі проти інших соцмереж. Платформа прийняла 90 % дезінформаційних оголошень. Тоді як Facebook — 20 % англомовних і 50 % іспаномовних. YouTube відхилив усі рекламні оголошення та заблокував фіктивний акаунт.
TikTok не відповів на прохання прокоментувати результати дослідження. А представник Meta сказав PolitiFact, що звіти ґрунтуються на дуже невеликій вибірці оголошень і «не є репрезентативними з огляду на кількість політичної реклами, яку ми переглядаємо щодня у всьому світі».
Читайте більше: Більше про алгоритми TikTok: чому підігрівають нерелевантні відео
Мета
Напередодні проміжних виборів 2022 року Meta заявила, що заборонить рекламу, яка заохочує людей не голосувати або ставить під сумнів легітимність результатів виборів. Вона також заявила, що «заборонила понад 1000 мілітаризованих громадських рухів, видалила десятки тисяч сторінок, груп і акаунтів QAnon із наших застосунків і видалила оригінальну групу #StopTheSteal».
Перед проміжними виборами 2022 року агентство AP повідомило, що Meta «згортає деякі зі своїх захисних механізмів, призначених для запобігання дезінформації під час голосування». Платформа закрила акаунти дослідників, які вивчають політичну рекламу в Facebook, а CrowdTangle — інструмент для новинних редакцій і дослідників для виявлення популярних дописів і дезінформації — «не працює в деякі дні».
У США з Meta співпрацюють 11 сторонніх організацій, зокрема і PolitiFact, які перевіряють факти. Дописи, позначені як дезінформація, стають менш помітними у стрічках користувачів. Проте програма сторонньої перевірки фактів Meta не поширюється на чинних політиків.
Як і Twitter, за останні місяці Meta значно скоротила свій штат. На початку січня 2023 року Meta звільнила приблизно 200 модераторів контенту, щонайменше 16 членів групи добробуту Instagram і понад 100 посад, пов’язаних із довірою, чесністю та відповідальністю.