Технологічні компанії створюють групу, яка відповідатиме за безпеку ШІ

Технологічні компанії створюють групу, яка відповідатиме за безпеку ШІ

Четвер, 27 Липня, 2023

Вероніка Нановська

Чотири передові компанії з розроблення штучного інтелекту — Anthropic, Google, Microsoft і OpenAI — сформували групу для його дослідження. Вона матиме назву Frontier Model Forum та «забезпечуватиме безпечне та відповідальне розроблення передових моделей ШІ», встановлюватиме практики для керування над ним і усуватиме ризики. Про це повідомляє The Washington Post.

Що пропонує Frontier Model Forum?

Серед учасників форуму — лише кілька компаній, які розробляють «масштабні моделі машинного навчання, які перевершують можливості найдосконаліших наявних моделей». Вони пообіцяли ретельно тестувати системи і ділитися досвідом  одна з одною, законодавцями та дослідниками. 

Мета Frontier Model Forum — мінімізація ризиків і забезпечення незалежного оцінювання безпеки платформ штучного інтелекту. Форум також підтримуватиме розроблення застосунків для розв’язання таких викликів, як зміна клімату, профілактика раку та кіберзагрози.

У найближчі місяці група створить консультативну раду, яка керуватиме її стратегією та пріоритетами. Компанії-засновники також створять фінансування, робочу групу та статут.

В останні місяці американські компанії розгорнули все більш потужні інструменти штучного інтелекту, що викликало занепокоєння щодо порушення авторських прав, конфіденційності та того, що ШІ може зрештою замінити людей.

Домовленості з Білим домом

Минулого тижня на зустрічі в Білому домі президент США Джо Байден згадав про обіцянки техгігантів впровадити заходи, які зроблять технології ШІ безпечнішими. Зокрема, про інструменти для попередження громадськості про те, що контент згенерований штучним інтелектом (проте нещодавно OpenAI вимкнула інструмент, який розрізняє текст, написаний ШІ, через низьку точність).

Ця ініціатива може говорити про те, що компанії випереджають зусилля уряду щодо створення правил розроблення та впровадження ШІ. Конгрес поспішає регулювати технології, але техгіганти обирають регулювати свої платформи без його втручання. Утім, сенатор Джош Хоулі заявив під час слухань, що компанії, які розробляють штучного інтелекту, є тими самими компаніями, які ухилялися від регуляторного нагляду.

Наприклад, компанія Meta створила та фінансує Наглядову раду — орган незалежних експертів, який зважує складні рішення щодо модерації контенту, зокрема заборону експрезиденту Дональду Трампу доступ до соцмереж після терактів 6 січня. Проте захисники прав споживачів також критикують такі органи саморегулювання як маневр для політиків, що зводить нанівець законодавство, необхідне для обмеження зловживань в індустрії.

2016 року вже створювали схожу групу — Partnership on AI, членами-засновниками якої також є Google і Microsoft. 

Водночас державне регулювання з’явиться ще не скоро. Законодавці в Конгресі перебувають на ранніх стадіях розроблення обмежень щодо боротьби із загрозою ШІ. Європейські політики також роками працюють над власним законодавством у сфері ШІ, але і їхні пропозиції ще не скоро набудуть чинності. Деякі керівники технологічних компаній приєдналися до Пакту ЄС про штучний інтелект — добровільної угоди з регуляторами для підготовки майбутнього законодавства блоку.

Anthropic | Frontier Model Forum | Google | Microsoft | OpenAi | Білий дім