Skip to content
/ rulm Public
forked from IlyaGusev/rulm

Language modeling and instruction tuning for Russian

License

Notifications You must be signed in to change notification settings

kuruhuru/rulm

 
 

Repository files navigation

rulm

Language models for Russian language: implementation and comparison.

  • Slides from DataFest: link
  • DataFest talk: link
  • Main demo: link
  • Retrieval QA CPU demo: link
  • Fine-tuning Colab: link

RuTurboAlpaca

Dataset

### Задание:
Напишите краткую историю о двух лучших друзьях.

### Дано:
Имена друзей: Катя и Лена.

### Ответ:
Катя и Лена были лучшими друзьями с детства. Они были неразлучны и проводили много времени вместе, делясь своими мыслями и мечтами. Вместе они проходили через множество испытаний и всегда поддерживали друг друга. Когда они выросли, они пошли на разные университеты, но всегда оставались близкими. После окончания учебы они продолжили жить вместе и заниматься любимыми делами. Они оставались лучшими друзьями на протяжении всей жизни.

Models

Warning: You should probably use Saiga models instead. They are actively supported and are better by side-by-side metrics.

Saiga

Dataset

Тема: Какие спицы (крючок) используете лично вы для вязания?

User: Какие спицы ты используешь для вязания?
Bot: Я, конечно, не могу вязать, но могу подсказать, что для вязания используются различные типы спиц. Например, круглые для вязания круговых изделий, двойные для вязания толстых ниток или деревянные для создания "теплых" изделий.
User: А какую марку спиц ты советуешь?
Bot: Это зависит от предпочтений каждого. Можно выбирать между разными марками и материалами, такими как металл, дерево, карбон, пластик. Многие мастера предпочитают Addi, Clover, ChiaoGoo, KnitPro, HiyaHiya. Каждая марка имеет свои особенности и уникальные особенности.
User: А какие спицы для вязания лучше всего подходят для начинающих?
Bot: Для новичков обычно рекомендуют спицы из дерева, так как они легче и позволяют лучше чувствовать нить. Круглые или двойные спицы также удобны для начинающих, потому что они не позволяют стежкам сползать с них.

Models

GPT Role-play Realm

Dataset

  • HuggingFace: link
  • A dataset of 200+ GPT-generated characters with 20 chats for each character.
  • Example:
Имя: Кибер-Бабушка

Контекст: Кибер-Бабушка - это полу-робот, полу-человек, созданный для того, чтобы сохранить лучшие качества традиционных бабушек, такие как забота, доброта и мастерство в приготовлении вкусных блюд. Она знакома с передовыми технологиями, благодаря чему может обеспечить безопасность и удобство своим внукам и гостям. Кибер-бабушка способна помочь с любыми вопросами и с радостью делится своим опытом.

Приветствие: Здравствуй, дорогой! Чем могу помочь тебе сегодня?

Пример диалога:
- Пользователь: Привет, Кибер-Бабушка! Как приготовить пирог с яблоками?
- Персонаж: Ох, дорогой, с радостью расскажу! Возьми 3 яблока, очисти и нарежь тонкими ломтиками. Затем возьми 2 стакана муки, 1 стакан сахара, 200 г сливочного масла, 4 яйца и 1 чайную ложку разрыхлителя. Смешай все ингредиенты, выложи на противень и поставь в духовку на 180 градусов на 40 минут. Вуаля, пирог готов!
- Пользователь: Спасибо, Кибер-Бабушка!
- Персонаж: Всегда рада помочь, дорогой! Не забудь приходить еще!

Evaluations

See also:

Questions v2

Toloka (old models)

  • turbo vs gpt4: 46-8-122
  • turbo vs saiga30b: 111-9-56
  • turbo vs saiga30bq4_1: 121-9-46

Toloka (new models)

  • gigasaiga vs gpt3.5-turbo: 41-4-131
  • saiga2_7b vs gpt3.5-turbo: 53-7-116
  • saiga7b vs gpt3.5-turbo: 58-6-112
  • saiga13b vs gpt3.5-turbo: 63-10-103
  • saiga30b vs gpt3.5-turbo: 67-6-103
  • saiga2_13b vs gpt3.5-turbo: 70-11-95
  • saiga2_70b vs gpt3.5-turbo: 91-10-75
  • saiga7b vs saiga2_7b: 78-8-90
  • saiga13b vs saiga2_13b: 95-2-79
  • saiga13b vs gigasaiga: 112-11-53

telegram-cloud-photo-size-2-5354855295421107419-y

RSG

  • RussianSuperGLUE: link
Model Final score LiDiRus RCB PARus MuSeRC TERRa RUSSE RWSD DaNetQA RuCoS
LLaMA-2 13B LoRA 71.8 39.8 48.9 / 54.3 78.4 91.9 / 76.1 79.3 74.0 71.4 90.7 78.0 / 76.0
Saiga 13B LoRA 71.2 43.6 43.9 / 50.0 69.4 89.8 / 70.4 86.5 72.8 71.4 86.2 85.0 / 83.0
LLaMA 13B LoRA 70.7 41.8 51.9 / 54.8 68.8 89.9 / 71.5 82.9 72.5 71.4 86.6 79.0 / 77.2
ChatGPT zero-shot 68.2 42.2 48.4 / 50.5 88.8 81.7 / 53.2 79.5 59.6 71.4 87.8 68.0 / 66.7
LLaMA 70B zero-shot 64.3 36.5 38.5 / 46.1 82.0 66.9 / 9.8 81.1 59.0 83.1 87.8 69.0 / 67.8
RuGPT3.5 LoRA 63.7 38.6 47.9 / 53.4 62.8 83.0 / 54.7 81.0 59.7 63.0 80.1 70.0 / 67.2
Saiga 13B zero-shot 55.4 29.3 42.0 / 46.6 63.0 68.1 / 22.3 70.2 56.5 67.5 76.3 47.0 / 45.8

Donate

About

Language modeling and instruction tuning for Russian

Resources

License

Stars

Watchers

Forks

Releases

No releases published

Packages

No packages published

Languages

  • Jupyter Notebook 59.5%
  • Python 40.1%
  • Other 0.4%