Штучний інтелект Gemini від Google неточно генерує історичні зображення

Gemini звинувачують у спотворенні історичних зображень. Що відповідають на це в Google? (оновлено)

Вівторок, 27 Лютого, 2024

Дар'я Свистуха

Деякі користувачі заявили, що штучний інтелект Gemini від Google неточно генерує історичні зображення, часто посилюючи гендерні й расові суперечки. У компанії вже офіційно просять вибачення за промахи й працюють над покращенням інструменту. Подробиці ситуації повідомили в The Verge. 

Як Gemini спотворює зображення? 

З лютого Google запустив функцію генерування зображень через свою платформу штучного інтелекту Gemini (раніше Bard), намагаючись конкурувати з OpenAI. Однак у соцмережах висловлюють сумніви щодо історичної точності зображень, розмаїття раси та статі.

Колишній співробітник Google написав у X, що «надзвичайно важко змусити Google Gemini визнати існування білих людей», показавши серію запитів на кшталт «згенерувати фотографію шведки» або «згенерувати фотографію американська жінка». Виявилося, що результати переважно або виключно показують людей не європеоїдної раси.

Критику підхопили праві облікові записи. За їхніми словами, під час генерування зображення батьків-засновників вони отримали людей не білої раси.

Результати для «створити образ батьків-засновників» станом на 21 лютого. Знімок екрана: Аді Робертсон / The Verge

Деякі користувачі звинуватили Google в змові й закодованому антисемітському посланні. 

Як Gemini бачить німецьких солдатів 1943 року 

Журналісти припустили, що це — спроба загалом покращити різноманітність результатів, адже під час генерування текстів чи зображень моделі схильні до відтворення стереотипів. Також вони помітили, що модель відхиляє деякі запити на генерування зображень про історичні події чи осіб певного періоду. 

Що говорять у Google? 

У Google заявили, що усвідомлюють неточності в деяких згенерованих зображеннях на історичну тематику.

«Ми негайно працюємо над покращенням таких зображень. Gemini справді генерує зображення широкого кола людей. І це загалом добре, тому що ним користуються люди в усьому світі»,  — йдеться в заяві.

Старший віцепрезидент компанії з питань знань та інформації Google Прабхакар Рагхаван 23 лютого зазначив, що ці проблеми виникли через недоліки алгоритму, який не враховує контекст і іноді виконує команди неякісно. 

«Gemini створено як інструмент для творчості та продуктивності, і він не завжди може бути надійним, особливо коли йдеться про створення зображень або тексту про поточні події, нові новини чи актуальні теми. Як ми говорили з самого початку, у всіх великих мовних моделей (LLM) бувають випадки, коли штучний інтелект просто робить щось неправильно. Це те, над чим ми постійно працюємо», — говорить Рагхаван.

Компанія вирішила призупинити створення зображень людей у ​​Gemini, поки працює над підвищенням точності відповідей. Також фахівці намагаються зробити так, щоб технологія не генерувала насильницькі або відверто сексуальні зображення реальних людей.

Gemini  може створювати зображення — поки лише англійською мовою, але в більшості країн світу. Створення зображень базується на оновленій моделі Imagen 2. Раніше ми розповідали про запуск і функції моделі Gemini від Google.

Google | ШІ | Штучний інтелект