Людина як орієнтир, авторство й фактчекінг. Як українські медіа, організації та держструктури використовують ШІ

Людина як орієнтир, авторство й фактчекінг. Як українські медіа, організації та держструктури використовують ШІ

Середа, 20 Березня, 2024

Середовище

Суліковська Олена

2 березня у Львові пройшла щорічна конференція Школи журналістики та комунікацій УКУ. Під час дискусії про політики використання штучного інтелекту спікери обговорювали і його виклики: загрози дезінформації, ризики порушення приватності даних і відповідальність перед авдиторією. «Медіамейкер» зібрав найцікавіші тези.

Спікери панелі «Штучний інтелект: допомога чи шкода медіасфері»: 

Спікери панелі. Фото: Школа журналістики та комунікацій УКУ
Спікери панелі. Фото: Школа журналістики та комунікацій УКУ

Політики використання ШІ в редакціях: досвід Суспільного та «Української правди»

«Суспільне» й «Українська правда» першими в Україні оприлюднили публічні політики використання штучного інтелекту на сайтах. 

Анастасія Коріновська, редакторка з розробки цифрових продуктів «Суспільного», каже, що їхня політика випрацювана юристами. Серед важливих моментів взаємодії мовника з ШІ вона виділяє таке:

Читати також: За якими правилами грати з ШІ

Людиноцентрична політика застосування ШІ

Севгіль Мусаєва, головна редакторка «Української правди», каже, що ШІ пришвидшує роботу редакції, зокрема, із розшифруванням, фактчекінгом і перетворенням тексту у звук. Також у медіа почали використовувати генерацію заголовків для YouTube у форматі експерименту. 

Водночас головна редакторка вважає, що використання ШІ змінюватиметься під тиском обставин. «Ми писали подкаст, у якому брав участь Роман Романюк, і в один момент потрібно було додати кілька речень, записані ним. Тоді Роман був у відрядженні, і ми вирішили використати частину його голосу, щоб відтворити потрібне [за допомогою ШІ]. Це страшенно перелякало нашого відповідального за відділ подкастів: він подумав, що може залишитися без роботи», — ділиться головна редакторка. 

У медіа, каже Мусаєва, дотримуються принципу «бути чесними зі своїми читачами». Зокрема в тому, щоб не використовувати ШІ у генерації новин, ілюстрацій і фотоматеріалів. «Наша політика людиноцентрична, це наш принцип. ШІ — це допоміжна функція, щоби прискорити й покращити роботу журналістів. Але ми не граємося з цим. Навіть якщо використовуємо ШІ для ілюстрації — зазначаємо це. Тому головне, що ми хотіли показати у своїх правилах, — контроль на нашому боці. Але також ми опублікували їх для того, щоб закріпити для себе. Тобто це про контроль і себе також», — пояснює головна редакторка «Української правди».

Цю думку поділяє й Анастасія Коріновська. За її словами, на відміну від людини, у штучного інтелекту немає свідомості.

«Роль журналістики зростає — вибір людини, з якою спілкуєшся, цитати, яку хочеш “підсвітити”, або вибір кута проблеми, який хочеш показати, не можна автоматизувати».

Анастасія Коріновська

Боротьба з дезінформацією за допомогою ШІ

Антон Тарасюк — співзасновник ШІ-стартапу для управління інформаційними ризиками Mantis Analytics. Це платформа на основі ШІ, яка моніторить інфопростір у режимі реального часу й аналізує його, щоб надавати дані для управління фізичними та інформаційними ризиками. «Ми тренуємо власні моделі ШІ, щоб вони допомагали компаніям й організаціям бачити потенційну дезінформацію», — розповідає він.

У цьому контексті Тарасюк поділився спостереженнями за роботою VoxCheck. Наприклад, їм потрібно було проаналізувати 1000 одиниць контенту — статей чи постів. З цього числа мають виділити 200 підозрілих матеріалів на основі експертного судження за деякими типовими критеріями: джерело, риторика, автор, наявність документів тощо. «Все це можна автоматизувати й натренувати моделі ШІ так, щоб аналітик не витрачав час на пошук 200 підозрілих, а вже дивився на них і шукав ті 20, які є дійсно проблемними», — каже співзасновник ШІ-стартапу. 

Водночас, за його словами, остаточний вердикт має спиратися на експертне судження. «Це може розчарувати людей, які шукають швидких технічних рішень, але коли ми говоримо про дезінформацію — це про доволі суб’єктивну шкоду. Адже те, що шкідливо для українського суспільства, може бути нормальним для німецького», — пояснює Тарасюк. За його словами, в питанні розвінчання дезінформації велике завдання стоїть не тільки перед людьми, які аналізують ворожі матеріали, а й тими, хто на основі цієї аналітики будує комунікацію із суспільством і створює контент — тобто зокрема й перед медійниками. 

Також Антон Тарасюк каже, що питання з дезінформацією можна вирішити через системну роботу медіа й фактчекерів із суспільством. Адже коли авдиторія гортає свою стрічку в соцмережах, то має розуміти патерни дезінформації. Бо, наприклад, у медіа це роблять за неї.

Застосування ШІ в Міністерстві цифрової трансформації

Керівниця відділу маркетингу та комунікації Мінцифри Аліна Торнагі каже, що в міністерстві розробляють чимало проєктів за допомогою штучного інтелекту. Велику частину з них використовують у війську. Наприклад, кластер підтримки розробок оборонної техніки Brave1 має 35 розробок, завʼязаних на штучному інтелекті. 

Водночас у «Дії», де Торнагі також працює, намагаються не спотворювати маркетингові ролики нереалістичністю, наприклад, коли йдеться про відновлення країни. Тому, коли створюють зображення чи відео через ШІ, то не вводять промпти з описом сенситивних подій, які реально відбувалися в Україні, а генерують нереалістичні сценарії. Щодо військових розробок — теж застосовують оригінальний контент. 

Виняток — креативні методики, каже Торнагі. Наприклад, розроблення AIDA — маркетингової формули «керування» споживчою поведінкою. Вона складається з чотирьох компонентів: залучення уваги, виклик інтересу, виклик бажання через аргументи та спонукання до потрібної дії.

«Іноді простіше віддати це завдання ChatGPT, щоб він описав усе за брифом, і витратити час на щось більш доцільне. Що стосується текстів — є рішення, які працюють крутіше ChatGPT, але в них немає розвиненої української мови. Тож виникає питання як працювати з цим. Ми навчаємо ChatGPT шукати й обробляти інформацію на певну тему і правильно відповідати на запитання», — ділиться Торнагі.

Читати також: Як журналістам безпечно використовувати штучний інтелект — рекомендації Мінцифри

Етичні межі використання ШІ

Декан факультету суспільних наук УКУ Володимир Турчиновський вважає ключовим питанням те, як ШІ допоможе розвинути людський інтелект. 

«Американський письменник [і бізнес-оратор] Саймон Сінек, який виступає перед корпораціями, часто називає три ключові питання: що, як і навіщо. Кожна компанія мала б їх пройти. Наприклад, що роблять — генерують матеріал, як — уже складніше питання, оскільки це стосується і технологій, і корпоративної культури. Проте найскладніше — навіщо. Для чого ми застосовуємо технології у матеріалах? Сильна та компанія, яка може дати на них відповіді», — підсумував Турчиновський.

технології | ШІ | Штучний інтелект