--- library_name: peft base_model: HuggingFaceH4/zephyr-7b-beta datasets: - w95/databricks-dolly-15k-az license: mit language: - az --- # Model Card for Model ID This model was built via parameter-efficient finetuning of the HuggingFaceH4/zephyr-7b-beta base model on the first 8k rows in w95/databricks-dolly-15k-az. ## Model Details ### Model Description - **Developed by:** Mammad Hajili - **Model type:** Causal LM - **Language(s) (NLP):** Azerbaijani - **License:** mit - **Finetuned from model [optional]:** HuggingFaceH4/zephyr-7b-beta ## Training procedure The following `bitsandbytes` quantization config was used during training: - quant_method: bitsandbytes - load_in_8bit: False - load_in_4bit: True - llm_int8_threshold: 6.0 - llm_int8_skip_modules: None - llm_int8_enable_fp32_cpu_offload: False - llm_int8_has_fp16_weight: False - bnb_4bit_quant_type: nf4 - bnb_4bit_use_double_quant: False - bnb_4bit_compute_dtype: bfloat16 ### Framework versions - PEFT 0.6.3.dev0 ### Loading model and tokenizer ```python from peft import PeftModel, PeftConfig from transformers import AutoModelForCausalLM config = PeftConfig.from_pretrained("hajili/zephyr-7b-beta-dolly-azerbaijani") model = AutoModelForCausalLM.from_pretrained("HuggingFaceH4/zephyr-7b-beta", device_map='auto', torch_dtype=torch.bfloat16) model = PeftModel.from_pretrained(model, "hajili/zephyr-7b-beta-dolly-azerbaijani") tokenizer = transformers.AutoTokenizer.from_pretrained( "hajili/zephyr-7b-beta-dolly-azerbaijani", ) tokenizer.pad_token = tokenizer.eos_token tokenizer.padding_side = 'right' ``` ### Text Comprehension: ``` python system_message = "Bakı şəhərinin əhalisi neçə milyondur?" user_message = "Azərbaycanın paytaxtı Bakı şəhəridir. Onun əhalisi 3 milyondur. Bakı Xəzər dənizi sahilində yerləşir." prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n" inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False) output_ids = model.generate(**inputs, max_length=200) answer = tokenizer.batch_decode(output_ids)[0] print(answer) #Bakı şəhərinin əhalisi 3 milyondur. ``` ### Text Generation ``` python system_message = "Təbiət haqqında şeir yaz." user_message = "" prompt = f"<|system|>\n{system_message}\n<|user|>\n{user_message}\n<|assistant|>\n" inputs = tokenizer(prompt, return_tensors='pt', return_attention_mask=False) output_ids = model.generate(**inputs, max_length=200) answer = tokenizer.batch_decode(output_ids)[0] print(answer) #Günəşin yanında, göy qurşağının rəngləri, #Yeni bir günün doğulması, #Həyat başlayır, #Bir yeni səyahətə başlayın. # #Günəşin yanında, göy qurşağının rəngləri, #Rənglər dəyiş, #Həyat dəyişir, #Və məni tərk edir. ```