Leaderboard

* More information about speed scores and RAM are available here.

Rank Name LiDiRus RCB PARus MuSeRC TERRa RUSSE RWSD DaNetQA RuCoS
Parameters Speed RAM Speed RAM Speed RAM Speed RAM Speed RAM Speed RAM Speed RAM Speed RAM Speed RAM
1 HUMAN BENCHMARK - - - - - - - - - - - - - - - - - -
2 ruadapt Solar 10.7 twostage - - - - - - - - - - - - - - - - - -
3 Mistral 7B LoRA - - - - - - - - - - - - - - - - - -
4 FRED-T5 1.7B finetune - - - - - - - - - - - - - - - - - -
5 Golden Transformer v2.0 - - - - - - - - - - - - - - - - - -
6 LLaMA-2 13B LoRA - - - - - - - - - - - - - - - - - -
7 Saiga 13B LoRA - - - - - - - - - - - - - - - - - -
8 YaLM p-tune (3.3B frozen + 40k trainable params) - - - - - - - - - - - - - - - - - -
9 ruadapt LLaMA-2 7B LoRA - - - - - - - - - - - - - - - - - -
10 FRED-T5 large finetune - - - - - - - - - - - - - - - - - -
11 RuLeanALBERT - - - - - - - - - - - - - - - - - -
12 FRED-T5 1.7B (only encoder 760M) finetune - - - - - - - - - - - - - - - - - -
13 ruT5-large finetune - - - - - - - - - - - - - - - - - -
14 ruRoberta-large finetune - - - - - - - - - - - - - - - - - -
15 gpt-3.5-turbo zero-shot - - - - - - - - - - - - - - - - - -
16 Golden Transformer v1.0 - - - - - - - - - - - - - - - - - -
17 xlm-roberta-large (Facebook) finetune - - - - - - - - - - - - - - - - - -
18 mdeberta-v3-base (Microsoft) finetune - - - - - - - - - - - - - - - - - -
19 Saiga2 70B zero-shot - - - - - - - - - - - - - - - - - -
20 Saiga Mistral 7B zero-shot - - - - - - - - - - - - - - - - - -
21 ruT5-base finetune - - - - - - - - - - - - - - - - - -
22 ruBert-large finetune - - - - - - - - - - - - - - - - - -
23 ruBert-base finetune - - - - - - - - - - - - - - - - - -
24 YaLM 1.0B few-shot - - - - - - - - - - - - - - - - - -
25 Qwen 14B saiga zero-shot - - - - - - - - - - - - - - - - - -
26 Saiga 13B zero-shot - - - - - - - - - - - - - - - - - -
27 RuGPT3XL few-shot - - - - - - - - - - - - - - - - - -
28 ruElectra-medium finetune - - - - - - - - - - - - - - - - - -
29 ruElectra-large finetune - - - - - - - - - - - - - - - - - -
30 RuBERT plain 165 2.39 295 2.39 1070 2.39 4 2.40 297 2.39 226 2.39 102 2.39 118 2.40 9 2.40
31 Qwen 7B saiga zero-shot - - - - - - - - - - - - - - - - - -
32 SBERT_Large_mt_ru_finetuning - - - - - - - - - - - - - - - - - -
33 SBERT_Large - - - - - - - - - - - - - - - - - -
34 Qwen 4B saiga zero-shot - - - - - - - - - - - - - - - - - -
35 ruElectra-small finetune - - - - - - - - - - - - - - - - - -
36 RuGPT3Large 69 7.50 53 7.50 137 7.50 1 7.49 61 7.50 75 7.49 49 7.51 27 7.49 2 7.49
37 RuBERT conversational 171 2.39 289 2.39 718 2.39 4 2.40 302 2.39 255 2.39 101 2.39 103 2.40 8 2.40
38 Multilingual Bert 136 2.39 194 2.39 451 2.39 4 2.39 195 2.39 164 2.39 85 2.40 90 2.40 7 2.40
39 heuristic majority - - - - - - - - - - - - - - - - - -
40 RuGPT3Medium 106 4.39 102 4.39 270 4.39 2 4.38 111 4.39 106 4.38 70 4.41 45 4.41 3 4.38
41 RuGPT3Small 176 2.36 289 2.37 872 2.36 4 2.38 319 2.37 163 2.36 105 2.36 97 2.38 8 2.38
42 Baseline TF-IDF1.1 - - - - - - - - - - - - - - - - - -
43 Random weighted - - - - - - - - - - - - - - - - - -
44 majority_class - - - - - - - - - - - - - - - - - -