Компанія OpenAI вимикає інструмент, який відрізняв тексти написані людиною, від текстів, згенерованих ШІ, через низьку точність. Класифікатор ШІ не діє з 20 липня. Про це OpenAI пише написала у своєму блозі.
Компанія визнала, що класифікатор ніколи не був достатньо помічним у виявленні ШІ-тексту, й попередила, що він може видавати помилкові результати. Зокрема позначати текст, написаний людиною, як згенерований штучним інтелектом.
OpenAI зазначила, що працюватимуть над урахуванням відгуків і досліджуватимуть більш ефективні методи розрізнення тексту. Там додали, що планують «розробити та розгорнути механізми, які дадуть користувачам зрозуміти, що аудіо- чи візуальний контент створений штучним інтелектом». Про те, якими можуть бути ці механізми, поки не повідомили.
Останні дослідження показують, що згенерований текст може бути переконливішим за текст, який написала людина. 21 липня компанії штучного інтелекту, зокрема OpenAI, Alphabet і Meta, обіцяли запровадити заходи, які зроблять технології ШІ безпечнішими. Один із них — застосування водяних знаків на створеному штучним інтелектом контенті. У США також працюють над розробленням указу та законодавства, який регулюватиме технології штучного інтелекту.