Paul Rock
commited on
Commit
•
736ee97
1
Parent(s):
568b8fe
Readme updated
Browse files
README.md
CHANGED
@@ -19,7 +19,102 @@ tags:
|
|
19 |
|
20 |
# Saiga/Yarn-Mistral 7B 128k, Russian Mistral-based chatbot
|
21 |
|
22 |
-
Welcome to the adapter-only version of Saiga 7B LoRA.
|
23 |
-
|
24 |
|
|
|
25 |
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
19 |
|
20 |
# Saiga/Yarn-Mistral 7B 128k, Russian Mistral-based chatbot
|
21 |
|
22 |
+
Welcome to the adapter-only version of Saiga 7B LoRA. This model is built upon the foundation
|
23 |
+
of [Nous-Yarn-Mistral-7b-128k](https://huggingface.co/NousResearch/Yarn-Mistral-7b-128k).
|
24 |
|
25 |
+
🔗 Training code is [here](https://github.com/EvilFreelancer/saiga-custom/blob/main/yarn_mistral_7b_128k.ipynb).
|
26 |
|
27 |
+
📊 Wandb report is [here](https://wandb.ai/evilfreelancer/rulm_self_instruct/reports/Saiga-Nous-Yarn-Mistral-7b-128k---Vmlldzo1OTgyMDgz).
|
28 |
+
|
29 |
+
## Examples
|
30 |
+
|
31 |
+
```text
|
32 |
+
User: Привет! Кто ты?
|
33 |
+
Bot: Здравствуйте! Я - Saiga 2, этот бот создан для того, чтобы помочь вам в решении различных задач и вопросов. Я использую современные технологии и алгоритмы машинного обучения, чтобы предоставлять наиболее точные ответы на ваши вопросы. Как я могу помочь вам сегодня?
|
34 |
+
```
|
35 |
+
|
36 |
+
```text
|
37 |
+
User: Почему трава зелёная?
|
38 |
+
Bot: Это связано с тем, что растения содержат хлорофилл, который поглощает свет и используется для фотосинтеза. Хлорофилл имеет зеленый цвет из-за своей структуры, которая позволяет ему поглощать красное и синее световые лучи, но не зеленый. Таким образом, зеленой траве мы видим только те части спектра, которые не поглощены хлорофиллом.
|
39 |
+
```
|
40 |
+
|
41 |
+
```text
|
42 |
+
User: Сколько будет 128*64?
|
43 |
+
Bot: 8192.
|
44 |
+
```
|
45 |
+
|
46 |
+
```text
|
47 |
+
User: У Серёжи есть мама Татьяна и папа Денис. И ещё у Серёжи есть брат Иван. Кем Ивану приходится Татьяна?
|
48 |
+
Bot: Ивану приходит наследник Татьяны.
|
49 |
+
```
|
50 |
+
|
51 |
+
```text
|
52 |
+
User: Я пошёл в магазин и купил 10 яблок. Два яблока я отдал соседу и два ремонтнику. Потом я купил ещё 5 яблок и одно из них съел. Также я отдал три банана моему брату. Сколько яблок у меня осталось?
|
53 |
+
Bot: Осталось 4 яблока.
|
54 |
+
```
|
55 |
+
|
56 |
+
```text
|
57 |
+
User: Сочини длинный рассказ, обязательно упоминая следующие объекты. Дано: Таня, мяч
|
58 |
+
Bot: Рассказ о том, как Таня потеряла свой любимый мяч и нашла его в неожиданном месте.
|
59 |
+
|
60 |
+
Таня была маленькой девочкой, которая любила играть в футбол со своими друзьями. Она всегда носила с собой свой любимый мяч, который был ее самым ценным веществом. Однажды, когда она играла со своими друзьями, мяч случайно улетел от нее и пропал без вести.
|
61 |
+
|
62 |
+
Таня начала беспокоиться и искать свой мяч, но нигде его не находила. Она провела несколько часов, ищущая его, но все было безуспешно. В конце концов, она решила, что мяч уже потерян навсегда.
|
63 |
+
|
64 |
+
Но однажды, когда Таня была дома, она услышала странный звук. Он был слишком громким, чтобы быть произведенным каким-то предметом внутри дома. Таня вышла из комнаты и увидела, что этот звук исходил из её балкона.
|
65 |
+
|
66 |
+
Она подбежала к балкону и увидела, что там лежит ее любимый мяч! Он был застрян между двух блоков кирпича, которые были расположены на краю балкона. Таня была очень рада, что нашла свой мяч, но теперь она должна была найти способ достать его.
|
67 |
+
|
68 |
+
Таня начала думать, как можно достать мяч, и решила, что ее лучший вариант - это использовать свой опыт игры в футбол. Она начала бросать мяч в стороны, пытаясь ударить его так, чтобы он упал на землю. Но это не работало, и мяч оставался застрянным между блоками кирпича.
|
69 |
+
|
70 |
+
Таня начала думать, что может использовать свой друг, чтобы помочь ей достать мяч. Она позвонила ему и рассказала ему о ситуации. Ее друг пришел к ней и вместе они начали думать над способами, как можно достать мяч.
|
71 |
+
|
72 |
+
Наконец, они решили, что могут использовать лоток для доставки мяча. Они нашли лоток, который был больше мяча, и начали использовать его для перемещения мяча. Они старались, чтобы мяч не падал на землю, и после нескольких попыток они смогли доставить мяч на землю.
|
73 |
+
|
74 |
+
Таня была очень рада, что нашла свой мьяч, и она начала играть в футбол с новым энтузиазмом. Она знала, что ничего не стоит того, чтобы потерять свой любимый мяч, и будет всегда беречь его.
|
75 |
+
```
|
76 |
+
|
77 |
+
## 📚 Training Datasets
|
78 |
+
|
79 |
+
The datasets utilized for training this model are consistent with those used for [Saiga-2](https://github.com/IlyaGusev/rulm).
|
80 |
+
|
81 |
+
Here's the comprehensive list:
|
82 |
+
|
83 |
+
- [ru_turbo_alpaca](https://huggingface.co/datasets/IlyaGusev/ru_turbo_alpaca)
|
84 |
+
- [ru_turbo_alpaca_evol_instruct](https://huggingface.co/datasets/IlyaGusev/ru_turbo_alpaca_evol_instruct)
|
85 |
+
- [ru_turbo_saiga](https://huggingface.co/datasets/IlyaGusev/ru_turbo_saiga)
|
86 |
+
- [ru_sharegpt_cleaned](https://huggingface.co/datasets/IlyaGusev/ru_sharegpt_cleaned)
|
87 |
+
- [oasst1_ru_main_branch](https://huggingface.co/datasets/IlyaGusev/oasst1_ru_main_branch)
|
88 |
+
- [gpt_roleplay_realm](https://huggingface.co/datasets/IlyaGusev/gpt_roleplay_realm)
|
89 |
+
- [ru_instruct_gpt4](https://huggingface.co/datasets/lksy/ru_instruct_gpt4)
|
90 |
+
|
91 |
+
## Training procedure
|
92 |
+
|
93 |
+
The following `bitsandbytes` quantization config was used during training:
|
94 |
+
|
95 |
+
- quant_method: QuantizationMethod.BITS_AND_BYTES
|
96 |
+
- load_in_8bit: False
|
97 |
+
- load_in_4bit: True
|
98 |
+
- llm_int8_threshold: 6.0
|
99 |
+
- llm_int8_skip_modules: None
|
100 |
+
- llm_int8_enable_fp32_cpu_offload: False
|
101 |
+
- llm_int8_has_fp16_weight: False
|
102 |
+
- bnb_4bit_quant_type: nf4
|
103 |
+
- bnb_4bit_use_double_quant: True
|
104 |
+
- bnb_4bit_compute_dtype: bfloat16
|
105 |
+
|
106 |
+
## ⚙️ Framework Versions
|
107 |
+
|
108 |
+
Ensure you have the following framework versions for compatibility:
|
109 |
+
|
110 |
+
- PyTorch 2.1.1
|
111 |
+
- PEFT 0.6.2
|
112 |
+
- bitsandbytes 0.41.2.post2
|
113 |
+
- transformers 4.35.2
|
114 |
+
- flash-attn 2.3.3
|
115 |
+
|
116 |
+
### Other
|
117 |
+
|
118 |
+
Dataset code revision: [c6ffa82fa39bfedf2b33931095a3a8960a89ac37](https://github.com/IlyaGusev/rulm/commit/c6ffa82fa39bfedf2b33931095a3a8960a89ac37)
|
119 |
+
|
120 |
+
Datasets merging script: [create_chat_set.py](https://github.com/IlyaGusev/rulm/blob/master/self_instruct/src/data_processing/create_chat_set.py)
|