31 березня Bloomberg оголосила про створення BloombergGPT. Компанія каже, що її мовна модель перевершує конкурентів щодо її власних інформаційних потреб.
Видання опублікувало дослідницьку статтю, в якій докладно описує розроблення своєї нової широкомасштабної моделі генеративного ШІ BloombergGPT. Ця велика мовна модель (LLM) спеціально навчена на широкому діапазоні фінансових даних для різноманітних завдань з оброблення природної мови (NLP) у фінансовій галузі.
Особливості BloombergGPT
Ця модель дасть змогу Bloomberg покращити наявні фінансові завдання NLP, такі як аналіз настроїв, розпізнавання іменованих об’єктів, класифікацію новин і відповіді на запитання. Також BloombergGPT відкриє нові можливості для оброблення величезних обсягів даних із системи ПЗ Bloomberg Terminal, за допомогою якої користувачі, зокрема, можуть відстежувати та аналізувати дані фінансового ринку в реальному часі.
BloombergGPT навчали на 700 млрд токенів (або фрагментів слів), тоді як GPT-3 — на 500 млрд. Він навчається на низці англомовних фінансових документів, новинах про фінанси, документах, пресрелізах, фінансових документах з інтернету та архівів Bloomberg, а також на джерелах новин, що не належать компанії.
Водночас варто пам’ятати, що усі ці навчальні дані мають власний набір потенційних упереджень.
Що може BloombergGPT?
Оскільки BloombergGPT має спільну навчальну базу з іншими LLM, він може робити те, що ми звикли очікувати від ChatGPT та інших подібних моделей. Проте він також може виконувати завдання, пов’язані з потребами Bloomberg. Зокрема, пропонувати заголовки для новин у стилі видання.
Також він краще налаштований, щоб відповідати на конкретні питання, пов’язані з бізнесом. Наприклад, він добре допомагає ідентифікувати генерального директора компанії.