Update README.md
Browse files
README.md
CHANGED
@@ -42,11 +42,61 @@ The following `bitsandbytes` quantization config was used during training:
|
|
42 |
|
43 |
- PEFT 0.6.3.dev0
|
44 |
|
|
|
|
|
|
|
45 |
```python
|
46 |
from peft import PeftModel, PeftConfig
|
47 |
from transformers import AutoModelForCausalLM
|
48 |
|
49 |
config = PeftConfig.from_pretrained("hajili/zephyr-7b-beta-dolly-azerbaijani")
|
50 |
-
model = AutoModelForCausalLM.from_pretrained("HuggingFaceH4/zephyr-7b-beta")
|
51 |
model = PeftModel.from_pretrained(model, "hajili/zephyr-7b-beta-dolly-azerbaijani")
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
52 |
```
|
|
|
42 |
|
43 |
- PEFT 0.6.3.dev0
|
44 |
|
45 |
+
|
46 |
+
### Loading model and tokenizer
|
47 |
+
|
48 |
```python
|
49 |
from peft import PeftModel, PeftConfig
|
50 |
from transformers import AutoModelForCausalLM
|
51 |
|
52 |
config = PeftConfig.from_pretrained("hajili/zephyr-7b-beta-dolly-azerbaijani")
|
53 |
+
model = AutoModelForCausalLM.from_pretrained("HuggingFaceH4/zephyr-7b-beta", device_map='auto', torch_dtype=torch.bfloat16)
|
54 |
model = PeftModel.from_pretrained(model, "hajili/zephyr-7b-beta-dolly-azerbaijani")
|
55 |
+
|
56 |
+
tokenizer = transformers.AutoTokenizer.from_pretrained(
|
57 |
+
"hajili/zephyr-7b-beta-dolly-azerbaijani",
|
58 |
+
)
|
59 |
+
tokenizer.pad_token = tokenizer.eos_token
|
60 |
+
tokenizer.padding_side = 'right'
|
61 |
+
```
|
62 |
+
|
63 |
+
### Text Comprehension:
|
64 |
+
|
65 |
+
``` python
|
66 |
+
system_message = "Bakı şəhərinin əhalisi neçə milyondur?"
|
67 |
+
user_message = "Azərbaycanın paytaxtı Bakı şəhəridir. Onun əhalisi 3 milyondur. Bakı Xəzər dənizi sahilində yerləşir."
|
68 |
+
|
69 |
+
prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n"
|
70 |
+
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False)
|
71 |
+
|
72 |
+
output_ids = model.generate(**inputs, max_length=200)
|
73 |
+
|
74 |
+
answer = tokenizer.batch_decode(output_ids)[0]
|
75 |
+
|
76 |
+
print(answer) #Bakı şəhərinin əhalisi 3 milyondur.
|
77 |
+
```
|
78 |
+
|
79 |
+
### Text Generation
|
80 |
+
``` python
|
81 |
+
system_message = "Təbiət haqqında şeir yaz."
|
82 |
+
user_message = ""
|
83 |
+
|
84 |
+
prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n"
|
85 |
+
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False)
|
86 |
+
|
87 |
+
output_ids = model.generate(**inputs, max_length=200)
|
88 |
+
|
89 |
+
answer = tokenizer.batch_decode(output_ids)[0]
|
90 |
+
|
91 |
+
print(answer)
|
92 |
+
|
93 |
+
#Günəşin yanında, göy qurşağının rəngləri,
|
94 |
+
#Yeni bir günün doğulması,
|
95 |
+
#Həyat başlayır,
|
96 |
+
#Bir yeni səyahətə başlayın.
|
97 |
+
#
|
98 |
+
#Günəşin yanında, göy qurşağının rəngləri,
|
99 |
+
#Rənglər dəyiş,
|
100 |
+
#Həyat dəyişir,
|
101 |
+
#Və məni tərk edir.
|
102 |
```
|