Чт. Июл 25th, 2024

Языковая модель Сбера и SberDevices стала лучшей в мире по пониманию русских текстов

Русская языковая модель Сбера и SberDevices признана лучшей в мире

Фото: Shutterstock

Языковая модель от Сбера и SberDevices FRED-T5 (Full-scale Russian Enhanced Denoisers T5) стала лучшей в мире по пониманию текста в соответствии с результатами тестов главного русскоязычного бенчмарка для оценки больших текстовых моделей Russian SuperGLUE, уступая по точности только человеку. Она превзошла другие представленные на лидерборде модели для русского языка с существенным отрывом, несмотря на больший размер многих моделей-конкурентов.

Сбер давно работает с трансформерными моделями — еще в 2019 году были обучены русскоязычные модели ruBERT и ruGPT-2, а в 2020 году при помощи суперкомпьютера Christofari была создана ruGPT-3. Эта модель существует в разных вариантах, и самый большой из них насчитывает 13 миллиардов параметров.

В отличие от моделей семейства GPT, состоящих только из декодирующих блоков трансформера, модель FRED-T5 содержит также кодирующие блоки, что позволяет ей гораздо эффективнее решать различные задачи в области обработки естественного языка.

Лидерборд Russian SuperGLUE (General Language Understanding Evaluation) — первый рейтинг нейросетей для русского языка. Место в рейтинге зависит от того, насколько качественно нейросеть выполняет задания на логику, здравый смысл, целеполагание и понимание смысла текста. Это открытый проект, которым пользуются исследователи данных, работающие с русскоязычными нейросетями.

Архитектурно модель FRED-T5 реализована на базе нейросети T5 и имеет 1,7 миллиарда параметров и 24 слоя. Модель обучалась на задачах восстановления случайно удаленных фрагментов текста на суперкомпьютере Christofari Neo. Это заняло шесть недель и потребовало использования обучающей выборки, содержавшей около 300 гигабайт текста. В среде специалистов по автоматической обработке естественного языка эту задачу называют MoD (Mixture of Denoisers). Этот подход был предложен ранее командой из Google в модели UL2. Наши исследователи реализовали этот подход с рядом существенных изменений, основанных на результатах собственных исследований.

«Ведущие исследовательские центры в области машинного обучения в последние годы создают все более и более крупные нейронные языковые модели. Количество параметров самых больших монолитных нейросетей уже перевалило за 500 миллиардов и продолжает расти. Это беспрецедентные в истории человечества вычислительные проекты. Но прогресс заключается не только в создании все более огромных нейросетевых монстров, но и в совершенствовании архитектур сетей и методов их обучения. Благодаря этому самые современные модели при том же количестве параметров интеллектуально превосходят своих предшественников. Хорошим примером этого эффекта является нейросеть FRED-T5, которая при сравнительно скромном по нынешним меркам числе параметров стала лидером в понимании русского языка», — рассказал директор Управления экспериментальных систем машинного обучения SberDevices Сергей Марков.