Що таке Паризька хартія, в чому її суть і принципи

10 принципів роботи журналістів зі штучним інтелектом. У чому суть Паризької хартії? 

Понеділок, 20 Листопада, 2023

Середовище, Технології та платформи

Вероніка Нановська

«Репортери без кордонів» і 16 партнерських організацій 10 листопада оприлюднили Паризьку хартію щодо використання штучного інтелекту в журналістиці. Її мета — визначити етичні принципи захисту інформації в епоху ШІ. 

Паризька хартія містить 10 пунктів. Її автори стверджують, що етика має керувати технологічними рішеннями в медіа, а редакції мають покладатися передусім на роботу людей і допомагати розрізняти автентичний і згенерований контент. Розглядаємо кожен із цих пунктів, а також реакцію медіаорганізацій.

Принципи Паризької хартії

Журналістська етика керує підхід до технологій у медіа

Медіа використовують технології, щоб підсилити журналістів для досягнення своєї головної мети — забезпечувати право людей на якісну та правдиву інформацію. Про це треба пам’ятати, вибираючи технології.

Використання й розвиток систем ШІ в журналістиці мають підтримувати цінності журналістської етики: правдивість і точність, справедливість, неупередженість, незалежність, ненанесення шкоди, недискримінацію, підзвітність, повагу до приватного життя й конфіденційності джерел.

Медіа пріоритизують ухвалення рішень людиною

Люди, а не ШІ, мають ухвалювати рішення як у довгострокових стратегіях, так і в щоденних редакційних завданнях. Використання ШІ має бути свідомим і добре поінформованим рішенням, яке ухвалюватиме людина. 

Редакційні команди мають чітко визначати цілі, сферу застосування й умови використання кожної системи ШІ. Вони мусять забезпечити наскрізний і безперервний нагляд за впливом систем, гарантувати суворе дотримання обмежень і зберігати можливість деактивувати ШІ у будь-який час.

Системи штучного інтелекту, які використовують у журналістиці, проходять незалежну перевірку

Системи ШІ, якими користуються медіа, мають проходити незалежну й ретельну перевірку, до яої долучатимуться групи підтримки журналістики. Їхня оцінка має переконливо продемонструвати дотримання основних цінностей журналістської етики.

Системи ШІ мають поважати закони про недоторканність приватного життя, інтелектуальну власність і захист даних. За недотримання цих вимог потрібно встановити чітку систему підзвітності. Перевагу варто віддавати тим системам, які працюють передбачувано і функції яких можна пояснити просто.

Медіа відповідають за контент, який вони публікують

Медіа беруть на себе редакційну відповідальність за використання ШІ під час збору, оброблення й поширення інформації. Редакція відповідає за кожну одиницю контенту, яку випускає.

Заходи відповідальності, пов’язані з використанням систем ШІ, потрібно визначити й оприлюднити, щоб забезпечити дотримання журналістської етики й редакційних настанов.

Медіа дотримуються прозорості у використанні штучного інтелекту

Будь-яке використання ШІ, що має значний вплив на виробництво або розповсюдження журналістського контенту, потрібно чітко розкривати для всіх, хто отримує інформацію.

Медіа мають вести публічний реєстр систем ШІ, які вони використовують, із зазначенням їхніх цілей, сфер застосування й умов використання.

Медіа дають змогу відстежити походження контенту

За можливості, медіа мають використовувати найсучасніші інструменти, які гарантують автентичність і походження опублікованого контенту, надавати перевірену інформацію про його походження та будь-які зміни, яких він міг зазнати. 

Будь-який контент, що не відповідає цим стандартам автентичності, мають розглядати як такий, що може ввести в оману.

Журналістика розрізняє автентичний і згенерований контент

Журналісти й медіа мають забезпечити чітку різницю між контентом, який фізично відображає реальний світ (наприклад, фотографії, аудіо- та відеозаписи), і тим, який створили або суттєво змінили за допомогою систем штучного інтелекту. 

Журналісти мають віддавати перевагу використанню автентичних кадрів і записів для відображення реальних подій. Медіа мусять уникати введення людей в оману під час використання ШІ, зокрема, утримуватися від створення або використання згенерованого контенту, який імітує реальні знімання та імітує реальних публічних осіб.

Автоматизація контенту підтримує різноманітність і цілісність інформації

Розроблення та використання систем штучного інтелекту для автоматичної персоналізації й рекомендацій контенту в медіа має відбуватися з дотриманням журналістської етики. Такі системи мусять поважати цілісність інформації, висвітлювати різноманітні точки зору, сприяти відкритості та демократичному діалогу.

Використання таких систем має бути прозорим. Користувачам, за можливості, потрібно давати можливість відключити автоматизацію, щоб забезпечити нефільтрований доступ до контенту. 

Журналісти, медіа й групи підтримки журналістики беруть участь у керуванні штучним інтелектом

Як основні охоронці права на інформацію, журналісти, медіа й групи підтримки журналістики мають відігравати активну роль в управлінні системами ШІ. Їх потрібно залучати до будь-якого глобального або міжнародного інституційного нагляду за управлінням і регулюванням ШІ.

Медіа мають гарантувати, що таке управління поважає демократичні цінності, а різноманітність людей і культур відображається в розвитку ШІ. Редакції мають залишатися в авангарді знань у галузі ШІ й зобов’язувати вивчати та звітувати про його вплив.

Журналістика захищає свою життєздатність під час переговорів із технологічними компаніями

Офіційні угоди мають регулювати доступ систем ШІ до журналістського контенту, щоб забезпечувати стійкість журналістики й відстоювати довгострокові інтереси медіа.

Власники систем штучного інтелекту мають покликатися на джерела, поважати права інтелектуальної власності й надавати справедливу компенсацію правовласникам (а ті — передавати її журналістам). 

Власники систем ШІ також зобов’язані вести прозорий і докладний облік журналістського контенту, який використовують для навчання й наповнення їхніх систем. Підписанти хартії закликають правовласників контенту вимагати, щоби системи ШІ використовували їхній контент із дотриманням цілісності інформації та фундаментальних принципів журналістської етики. А розробників систем ШІ закликають проєктувати й використовувати їх так, щоб гарантувати отримання якісної та надійної інформації з урахуванням різних точок зору.

Хто розробив і підписав Паризьку хартію

Хартію розробила комісія RSF під головуванням Марії Ресси — філіппіно-американської журналістки, CEO онлайн-видання Rappler і лауреатки Нобелівської премії миру 2021 року. До складу комісії увійшли 32 експерти в галузі журналістики й штучного інтелекту з 20 різних країн. 

Принципи підтримали такі організації:

  1. Азійсько-Тихоокеанська мовна спілка (ABU).
  2. Співпраця з питань міжнародної політики в галузі ІКТ у Східній та Південній Африці (CIPESA).
  3. Канадський фонд журналістики (CJF).
  4. Комітет захисту журналістів (CPJ).
  5. DW Akademie.
  6. Європейська федерація журналістів (EFJ).
  7. Європейський центр журналістики (EJC).
  8. Мережа етичної журналістики (EJN).
  9. Вільна преса без обмежень (FPU).
  10. Глобальна мережа журналістських розслідувань (GIJN).
  11. Глобальний форум з розвитку медіа (GFMD).
  12. Міжнародний консорціум журналістів-розслідувачів (ICIJ).
  13. Міжнародний інститут преси (IPI).
  14. Проєкт висвітлення організованої злочинності та корупції (OCCRP).
  15. Пулітцерівський центр.
  16. Thomson Foundation.

Реакція на оприлюднені принципи

Всесвітня асоціація видавців новин підтримала ініціативу врегулювання, проте вирішила не приєднуватися до хартії через нереалістичні перспективи розділу 3, який вимагає попереднього оцінювання систем ШІ.

«Рішення про те, які системи штучного інтелекту використовуватимуться в медіакомпанії, має залишатися за самою компанією і не має залежати від зовнішньої оцінки».

Вінсент Пейрен, CEO WAN-IFRA

На думку представників асоціації, критерії та вказівки використання ШІ мають ґрунтуватися на досвіді й потребах редакційних команд і комерційних чинниках. Нереалістично та небажано, щоб ці рішення передавалися невизначеному зовнішньому органу ще і з огляду на те, що редакції мусять самі нести відповідальність за власний контент.

Марта Рамос, президентка Всесвітнього форуму редакторів, яка представляла WAN-IFRA в робочій групі, сказала, що попереднє оцінювання інструментів штучного інтелекту здається нереальним, з огляду на шлях і швидкість розвитку штучного інтелекту, і ризикує втрутитися у внутрішню політику редакцій.

Водночас WAN-IFRA підтвердила свою підтримку Глобальних принципів штучного інтелекту — стандарту, узгодженого медіакомпаніями з усього світу в серпні 2023 року.

Читати більше:

Репортери без кордонів | ШІ