|
--- |
|
library_name: peft |
|
base_model: HuggingFaceH4/zephyr-7b-beta |
|
datasets: |
|
- w95/databricks-dolly-15k-az |
|
license: mit |
|
language: |
|
- az |
|
--- |
|
|
|
# Model Card for Model ID |
|
|
|
This model was built via parameter-efficient finetuning of the HuggingFaceH4/zephyr-7b-beta base model on the first 8k rows in w95/databricks-dolly-15k-az. |
|
|
|
## Model Details |
|
|
|
### Model Description |
|
|
|
<!-- Provide a longer summary of what this model is. --> |
|
|
|
- **Developed by:** Mammad Hajili |
|
- **Model type:** Causal LM |
|
- **Language(s) (NLP):** Azerbaijani |
|
- **License:** mit |
|
- **Finetuned from model [optional]:** HuggingFaceH4/zephyr-7b-beta |
|
|
|
## Training procedure |
|
|
|
The following `bitsandbytes` quantization config was used during training: |
|
- quant_method: bitsandbytes |
|
- load_in_8bit: False |
|
- load_in_4bit: True |
|
- llm_int8_threshold: 6.0 |
|
- llm_int8_skip_modules: None |
|
- llm_int8_enable_fp32_cpu_offload: False |
|
- llm_int8_has_fp16_weight: False |
|
- bnb_4bit_quant_type: nf4 |
|
- bnb_4bit_use_double_quant: False |
|
- bnb_4bit_compute_dtype: bfloat16 |
|
|
|
### Framework versions |
|
|
|
- PEFT 0.6.3.dev0 |
|
|
|
|
|
### Loading model and tokenizer |
|
|
|
```python |
|
from peft import PeftModel, PeftConfig |
|
from transformers import AutoModelForCausalLM |
|
|
|
config = PeftConfig.from_pretrained("hajili/zephyr-7b-beta-dolly-azerbaijani") |
|
model = AutoModelForCausalLM.from_pretrained("HuggingFaceH4/zephyr-7b-beta", device_map='auto', torch_dtype=torch.bfloat16) |
|
model = PeftModel.from_pretrained(model, "hajili/zephyr-7b-beta-dolly-azerbaijani") |
|
|
|
tokenizer = transformers.AutoTokenizer.from_pretrained( |
|
"hajili/zephyr-7b-beta-dolly-azerbaijani", |
|
) |
|
tokenizer.pad_token = tokenizer.eos_token |
|
tokenizer.padding_side = 'right' |
|
``` |
|
|
|
### Text Comprehension: |
|
|
|
``` python |
|
system_message = "Bakı şəhərinin əhalisi neçə milyondur?" |
|
user_message = "Azərbaycanın paytaxtı Bakı şəhəridir. Onun əhalisi 3 milyondur. Bakı Xəzər dənizi sahilində yerləşir." |
|
|
|
prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n" |
|
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False) |
|
|
|
output_ids = model.generate(**inputs, max_length=200) |
|
|
|
answer = tokenizer.batch_decode(output_ids)[0] |
|
|
|
print(answer) #Bakı şəhərinin əhalisi 3 milyondur. |
|
``` |
|
|
|
### Text Generation |
|
``` python |
|
system_message = "Təbiət haqqında şeir yaz." |
|
user_message = "" |
|
|
|
prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n" |
|
inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False) |
|
|
|
output_ids = model.generate(**inputs, max_length=200) |
|
|
|
answer = tokenizer.batch_decode(output_ids)[0] |
|
|
|
print(answer) |
|
|
|
#Günəşin yanında, göy qurşağının rəngləri, |
|
#Yeni bir günün doğulması, |
|
#Həyat başlayır, |
|
#Bir yeni səyahətə başlayın. |
|
# |
|
#Günəşin yanında, göy qurşağının rəngləri, |
|
#Rənglər dəyiş, |
|
#Həyat dəyişir, |
|
#Və məni tərk edir. |
|
``` |