Головна редакторка Reuters Алессандра Галлоні та редактор із питань етики Алікс Фрідман розіслали співробітникам рекомендації щодо використання штучного інтелекту. Так редакція прагне переконатися, що її журналісти ефективно використовуватимуть технологію ШІ, зберігаючи репутацію новинної організації, якій довіряють. Про це пише TBN.
Рекомендації планують регулярно оновлювати, а пізніше — видати офіційні вказівки.
Чотири стовпи Reuters
Перші повністю автоматизовані сповіщення про новини видання розробило ще в 1990-х роках і наразі публікує понад 1000 економічних даних на місяць без втручання людини. Відеокоманди використовують штучний інтелект для перетворення голосу в текст, щоб створювати сценарії та субтитри, а місцеві мовні команди регулярно використовують ШІ для первинних перекладів. Незабаром компанія запустить пілотний проєкт повністю автоматизованого машинного перекладу статей.
У записці до співробітників редактори Reuters виділили чотири основні принципи з використання штучного інтелекту.
- Reuters вважає технологію штучного інтелекту, включно з генеративними текстовими моделями, такими як ChatGPT, проривом. Він пропонує потенціал для покращення журналістики та розширення можливостей журналістів. Зокрема, ідея автономного новинного контенту — вже давня і важлива практика для Reuters News.
- Репортери та редактори Reuters братимуть повну участь і відповідатимуть за контент, який створюють за допомогою ШІ. До нього так само застосовуватимуть редакційну етику та стандарти.
- Reuters повідомлятиме про використання інструментів ШІ. Видання надаватиме читачам і клієнтам якомога більше інформації про походження новин — від специфіки джерела до методів створення або публікації — якщо використання конкретного інструменту штучного інтелекту є істотним для результату.
- Оскільки з’явилося багато контенту, створеного ШІ, ми маємо залишатися пильними, щоб джерела контенту були реальними. Reuters вимагає бути скептичним та перевіряти.
Рекомендації
Як ШІ може допомогти журналістам?
Журналісти Reuters можуть використовувати такі інструменти штучного інтелекту, як ChatGPT, для ідей заголовків і статей. Однак треба пам’ятати про його обмеження та застосовувати ті самі стандарти та запобіжні заходи, які б використовували за будь-яких інших обставин. Водночас поки що Reuters не публікуватиме історії, відео чи фотографії, створені ШІ, а також не редагуватиме тексти, доки інструменти ШІ нового покоління не відповідатимуть стандартам щодо точності та надійності.
Кілька правил:
- Не можна ділитися неопублікованою історією з будь-якою іншою відкритою платформою чи службою штучного інтелекту, наприклад, ChatGPT (так само видання ніколи не може запостити текст неопублікованої новини в Twitter або Facebook). Технічні команди працюють над захистом інструментів, які використовує Reuters, щоб захистити їхній контент від збереження у відкритих інструментах, таких як OpenAI.
- Ніколи не довіряти неперевіреним фактам без авторства, які надає система AI, така як ChatGPT (так само як видання ніколи не довіряє набору неперевірених фактів без авторства, надісланих електронною поштою з невідомого джерела). Тому, використовуючи штучний інтелект для обмірковування ідей заголовків, варто переконатися, що заголовок унікальний.
Читайте також: Як редакції експериментують з ШІ.
Безпека
Щоб експериментувати зі створенням контенту, компанія рекомендує використовувати OpenArena, яка має доступ до OpenAI.
Співробітники зможуть тестувати можливості штучного інтелекту без публікації (дані не отримає Microsoft і Open AI). Проте в деяких обмежених випадках (наприклад, аналіз даних) Reuters може дозволити його для публікацій.
Відповідальність
Редактори несуть відповідальність за контент, який вони публікують, незалежно від того, створена історія людиною чи машиною. Редакторам важливо так само критично ставитися до будь-якої історії або контенту, створеного ШІ. Це означає перевіряти факти, сенс і упередженість, а також виправляти будь-які помилки.
Також контент міститиме застереження про те, що «Ця історія створена ШІ та відредагована редакцією Reuters».
Крім того, використання цих інструментів може ускладнити нашу здатність захищати права інтелектуальної власності. Умови використання деяких інструментів вимагають від користувачів відмовитися від законних прав на контент, а деякі країни вважають створений штучним інтелектом контент таким, що не захищається авторським правом. Тут Reuters також несе юридичну відповідальність за контент, який публікує, незалежно від того, чи брав участь у його створенні інструмент ШІ.
Плани
ШІ не може робити оригінальні репортажі, але все краще вчиться на тому, що вже створене для створення нового контенту. Теоретично ШІ можна використовувати для створення резюме минулих історій у пояснювальному блоці, а також для створення часової шкали або блоку фактів. Підказки ШІ також можна використовувати для редагування історій або вилучення фактів, які потрібно перевірити.
Усі матеріали мають пройти ретельний процес редагування. Також Reuters планує створити систему, в якій журналісти, які використовуватимуть ШІ для збору або створення новин, позначатимуть це в каналі Teams. Таким чином редакція зможе заохочувати творчість і стежити за процесами. Пізніше також призначать редактора, який стежитиме за цим.
Нагадаємо, кілька місяців тому свої правила роботи з ШІ опублікувало видання Wired. А Financial Times призначили першу редакторку штучного інтелекту.
Читайте також: Як «онбордити» ШІ в редакцію без шкоди для журналістів, матеріалів і довіри аудиторії