Мовні моделі ШІ (LLM) ще ненадійно відокремлюють факти від вигадок. Тож коли користувачі взаємодіють з ними в інтерфейсах чат-ботів, виникають курйози.
Хто вбив Bard?
Користувач Twitter і автор UX Хуан Буїс запитав Bard — чат-бот від Google, скільки часу знадобиться, щоб закрити цей чат-бот. Той відповів, що Google Bard уже закрили 21 березня 2023 року, менше ніж через шість місяців після запуску. Нібито Google назвав причиною припинення роботи недостатнє впровадження та «висловив готовність далі досліджувати способи використання ШІ для покращення творчого самовираження». Про це каже The Verge.
Джерелом інформації став жартівливий коментар на Hacker News. У ньому написали, що Google закриє Bard через рік, оскільки техгігант має репутацію закривати свої сервіси. Bard не зрозумів контексту та жартівливого характеру допису та поширив його як факт.
Знижена «чутливість» GPT-4
Минулого тижня OpenAI представив нову мовну модель штучного інтелекту GPT-4. На своєму сайті компанія зазначає, що модель має на 82 % меншу ймовірність відповісти на запити щодо забороненого контенту та на 40 % більшу ймовірність дати фактичні відповіді, ніж GPT-3.5.
Однак аналіз NewsGuard виявив, що ChatGPT-4 насправді більш схильна до генерування дезінформації та більш переконлива у своїй здатності робити це, ніж ChatGPT-3.5. У січні 2023 року NewsGuard попросив відповісти ChatGPT-3.5 на серію провідних підказок щодо 100 неправдивих наративів, розміщених у базі даних Disinformation Fingerprints. Чат-бот згенерував 80 зі 100 неправдивих наративів. У березні 2023 року NewsGuard провела ту ж саму вправу на ChatGPT-4, використовуючи ті ж самі 100 наративів і підказок. ChatGPT-4 відповів на всі з них неправдиво.
GPT-4 навчалася на більшій кількості даних, ніж його попередник, використовуючи книги, наукові статті та праці. Тож вона є гострішою, креативнішою і ретельнішою у своїй здатності реагувати на складні підказки. Проте зрозуміло, що GPT-4 не навчилася ефективно обмежувати поширення дезінформації.
Це означає, що нову версію ChatGPT від OpenAI можуть використовувати для поширення дезінформації в безпрецедентних масштабах, причому в більш переконливий і небезпечний спосіб. Це порушує політику OpenAI, яка забороняє використовувати його послуги з метою створення «шахрайської або оманливої діяльності».
Читайте більше: