Чи дійсно YouTube рекомендує політично заангадований контент

Крок вліво, крок вправо: як YouTube рекомендує відео та чи правдиві теорії про ідеологічно заангажовані алгоритми

П’ятниця, 24 Березня, 2023

Середовище

Тетяна Боць

Науковці дослідили, чи мають рацію «теорієзмовці», і провели експеримент щодо рекомендацій у YouTube. Виявилося, що компанія не надто схиляється до конкретного політичного крила, коли рекомендує відео користувачам. Утім, деякі цікаві результати таки вдалось отримати.

Де проблема

Дослідники соціальних платформ давно дискутують, як все-таки працюють алгоритми та формуються бульбашки контенту. Серед теорій змов про вплив умовних політичних організацій на медіаспоживання часто вигулькують думки, ніби інформація в наших стрічках заздалегідь ідеологічно сформована. 

Це підкріплюється новинами про об’єми персональних даних користувачів, які збирають техногіганти. Дослідники з Інституту Брукінгса провели експеримент і спробували визначити, як формуються наші рекомендації в YouTube та чи дійсно платформа рекомендує ідеологічно заангажований контент. 

Фахівці зазначають, що насправді детально дослідити, що впливає на нашу стрічку рекомендацій — поведінка користувачів чи алгоритми — доволі складно. Особливо, коли достеменно невідомо, наскільки компанія штучно впливає на модерацію контенту. Наприклад, восени 2021 року злили документи Facebook, які доводили значну роль алгоритмів соцмережі у провокуванні штурму Капітолія 6 січня. Такі новини сіють сумнів щодо того, наскільки свідомо ми обираємо певний контент.

Алгоритми YouTube також часто змінюються, тому дослідники за межами платформи не мають доступу до даних для проведення аудиту. Тому для дослідження використали досвід реальних людей — що їм рекомендує платформа. 

Експеримент

Восени 2020 року 527 користувачів YouTube попросили встановити плагін для відстеження вебпереглядів і рекомендацій. Кожному учаснику призначили одне з 25 початкових (теж завчасно визначених) відео. Це була суміш політичного контенту різного ідеологічного спектра та розважальних відео про музику, ігри та спорт.

Потім кожному користувачеві випадковим чином наказували обирати визначену рекомендацію — завжди після перегляду клацати перше або друге пропоноване відео тощо. Респонденти дотримувалися протоколу протягом 20 кроків, а розширення браузера збирало список рекомендованих відео з кожного наступного натискання. Учасники мали різні політичні вподобання та різний рівень політичної заангажованості.

Дослідники представили гіпотезу про три можливі сценарії роботи алгоритмів YouTube:

Результати

Дослідники дізналися, що алгоритм YouTube підштовхує користувачів у «м’які» ідеологічні ехокамери. Ліберали та консерватори серед учасників експерименту отримали різні рекомендації відповідно до їхніх вподобань: ліберали бачать трохи ліберальніші відео, а консерватори — трохи консервативніші.

Утім, також виявилося, що алгоритм рекомендацій YouTube переважно спрямовує користувачів трохи вправо в політичному спектрі незалежно від поглядів. Дослідники припускають, що є дві причини цього:

Фахівці не знайшли доказів, що алгоритми ведуть користувачів до «кролячих нір». Проте, 14 із 527 учасників (тобто приблизно 3 %) у ході експерименту таки опинилися там. Хоча це невеликий відсоток проти результатів щодо гіпотези з ехокамерами, у масштабі всіх користувачів YouTube частка таких людей зросте. 

youtube | алгоритми