Лабораторія досліджень штучного інтелекту OpenAI публічно відреагувала на позов The New York Times про порушення авторських прав. Платформа назвала справу «безпідставною» і заявила, що The New York Times зманіпулювало в запиті, щоби змусити ChatGPT скопіювати уривки з його статnей.
Це останній, і, на думку деяких, найсильніший позов у низці подібних активних судових процесів. У них стверджується, що різні компанії, які займаються технологіями та штучним інтелектом, порушили інтелектуальну власність медіакомпаній, фотосайтів, авторів книг і художників. Серед інших прикладів — позов Getty Images проти ШІ-генератора зображень Stable Diffusion.
У чому суть позову The New York Times?
Судовий позов звинувачує OpenAI та Microsoft у порушенні авторських прав The New York Times. Видання зазначає, що великі мовні моделі (LLM) платформ, на яких працюють ChatGPT і Copilot, можуть генерувати вихідні дані, які дослівно відтворюють контент видання, точно підсумовують його та імітують його стиль. Наводять приклади, коли чат-боти відтворюють майже дослівно уривки з матеріалів видання, зокрема тих, які розміщені за пейволом.
Видання наголошує, що це «підриває і завдає шкоди» стосункам NYT із читачами й позбавляє його «доходів від передплати, ліцензування, реклами й партнерських відносин». Також у скарзі стверджується, що ці моделі штучного інтелекту загрожують високоякісній журналістиці, оскільки обмежують можливості новинних агентств захищати й монетизувати контент.
The New York Times не вимагає конкретної суми, але вказує, що відповідачі винні в «мільярдах доларів законних і фактичних збитків» за ймовірне копіювання його робіт. Видання також просить суд заборонити OpenAI та Microsoft навчати свої моделі штучного інтелекту, використовуючи його контент, а також знищити набори даних, які містять матеріали видання, чи моделі, які навчалися на таких наборах.
Відповідь OpenAI
У своєму блозі OpenAI заявила, що The New York Times «не розповідає повної історії». Компанії вели перемовини про партнерство й використання контенту до 19 грудня (позов подали 27 грудня, — ред.), тож справа в суді стала для іншої сторони сюрпризом. OpenAI заперечила, що її інструмент штучного інтелекту ChatGPT дослівно відтворює статті видання. OpenAI стверджує, що газета маніпулювала запитами до чат-бота, включаючи в них уривки зі статей, щоб отримати цитати у відповідях.
Крім того, OpenAI вважає, що видання надало приклади статей річної давнини, які вже поширилися на багатьох сторонніх вебсайтах.
Однак компанія відстоює свою давню позицію: щоб моделі ШІ могли навчатися і виконувати нові завдання, їм потрібен доступ до великої кількості знань. OpenAI вважає, що навчання ШІ-моделей за допомогою даних з інтернету підпадає під правила добросовісного використання, які дають змогу перепрофілювати твори, захищені авторським правом. Компанія оголосила, що власники вебсайтів можуть почати блокувати доступ пошукових роботів до своїх даних у серпні 2023 року, майже через рік після запуску ChatGPT.
OpenAI заявила, що все ще сподівається продовжити переговори з The New York Times про партнерство.
The New York Times — одне з багатьох новинних видань, яке заблокувало вебсканер OpenAI, щоби ШІ-моделі не навчалися на контенті видання. Це також зробили BBC, CNN та Reuters. Водночас компанія Axel Springer, яка володіє виданнями Politico і Business Insider, дає змогу ChatGPT отримувати інформацію безпосередньо з обох джерел, а Associated Press дає змогу OpenAI тренувати свої моделі на своїх новинних матеріалах протягом наступних двох років. Фотосток Shutterstock також уклав з OpenAI угоду щодо навчання на їхній бібліотеці зображень.
У заяві від 26 лютого OpenAI стверджує, що The New York Times використовувало «оманливі підказки», щоби змусити ChatGPT повторювати свої публікації. Компанія зазначає, що NYT надсилало статті безпосередньо чат-боту, щоби змусити його відтворити дослівні уривки.
«Звичайні люди не використовують продукцію OpenAI таким чином», — заявила OpenAI із покликанням на статтю NYT «35 способів як реальні люди використовують ШІ зараз».
З цієї причини компанія просить окружний суд Нью-Йорка відхилити кілька позовів щодо прямого порушення авторських прав.
Юрист Times Ян Кросбі сказав The Verge, що називати дії видання «хакерством» неправильно й що вони «використовували продукти OpenAI для пошуку доказів того, що компанія вкрала й відтворила роботи The New York Times, захищені авторським правом». Він додав, що OpenAI не заперечує, що копіювала роботи видання без дозволу в межах терміну давності.
Клопотання Microsoft щодо відхилення частини позову
4 березня 2024 року Microsoft подав до окружного суду США Південного округу Нью-Йорка клопотання щодо відхилення частини позову The New York Times, повідомили у виданні.
У своїй заяві Microsoft зазначає, що великі мовні моделі не витіснили з ринку новинні матеріали, на яких їх навчали. Компанія порівняла мовні моделі з відеомагнітофонами, стверджуючи, що і те, і інше дозволено законом.
«Наприкінці 1970-х років кіностудії подали до суду на Sony через відеомагнітофон Betamax, стверджуючи, що це дасть змогу людям незаконно копіювати фільми та телешоу. Але зрештою суди визнали, що виготовлення цих копій для особистого перегляду було добросовісним використанням (fair use), згідно із законом», — ідеться в повідомленні.
The Times стверджує: якщо читачі використовують чат-бот Microsoft для перегляду рекомендацій із сайту оглядів Wirecutter, що належить виданню, то він втрачає дохід від читачів. Microsoft у відповідь просить суд частково відхилити три частини позову, оскільки видання не надало реальних фактів, що свідчили би про втрату доходів Wirecutter.
Провідний адвокат видання The New York Times Ієн Кросбі сказав у своїй заяві: «Microsoft не заперечує, що вони співпрацювали з OpenAI, щоби скопіювати мільйони публікацій The Times без дозволу на створення своїх інструментів. Натомість компанія дивним чином порівнює LLM із відеомагнітофоном, хоча виробники відеомагнітофонів ніколи не стверджували, що для створення своїх продуктів необхідно масове порушення авторських прав».
Недосконалість закону
За словами Джейсона Блума, партнера юридичної фірми Haynes and Boone і голови групи з вирішення спорів щодо інтелектуальної власності, судді поки що з обережністю ставляться до аргументу про те, що навчання ШІ-моделі на творах, захищених авторським правом, є порушенням авторських прав. Професор Корнуельського університету Джеймс Гріммельман зауважує, що авторське право — це дуже тонка межа саме між прямим копіюванням і переосмисленням, а ШІ робить «ремікси всього», інколи запам’ятовуючи й відтворюючи уривки чи стиль. Тож під час судового розгляду таких справ усе будуватиметься на історіях, які розказуватимуть сторони: творці називатимуть це машинами плагіату, а розробники штучного інтелекту акцентуватимуть на неймовірних можливостях.
OpenAI вимагає перевірку оригінальності статей The New York Times
У липні 2024 року OpenAI запросив документи — нотатки репортерів, записи інтерв’ю та записи файлів, що підтверджують оригінальність статей NYT, про які йдеться у судовому процесі. Юристи розробника ChatGPT подали запит до окружного суду Нью-Йорка.
У NYT заявили, що такий запит є безпрецедентним і «не має жодної мети, окрім переслідування й помсти». «OpenAI не має права на необмежений доступ до майже 100-річної історії репортерських файлів, що лежать в основі запиту», — йдеться в заяві.
У виданні додали, що навіть якщо OpenAI не просить ідентифікувати конфіденційні джерела, вони сумніваються, як можна відокремити інформацію, надану джерелами, від самих джерел.
Раніше ми розповідали, як законодавство США, Європи та України регулює авторське право на твори штучного інтелекту.
Видалення доказів у судовому процесі
Інженери OpenAI видалили важливі докази, зібрані The New York Times та іншими видання. Про це йдеться в новому судовому позові за 20 листопада 2024 року.
Як пише The Verge, юристи The New York Times витратили понад 150 годин на пошук серед навчальних даних штучного інтелекту випадків використання їхніх публікацій. OpenAI визнав помилку щодо видалення даних і намагався відновити їх. Водночас те, що вдалося відновити, не може допомогти належним чином простежити, які журналістські матеріали використані для навчання моделей штучного інтелекту.
Юристи OpenAI назвали видалення «збоєм», адвокати The New York Times зазначили, що у них немає «жодних підстав вважати», що це зроблено навмисно.