--- language: - en - tr license: apache-2.0 tags: - text-generation-inference - transformers - unsloth - llama - trl - sft base_model: unsloth/llama-3-8b-bnb-4bit datasets: - umarigan/GPTeacher-General-Instruct-tr --- # Uploaded model - **Developed by:** umarigan - **License:** apache-2.0 - **Finetuned from model :** unsloth/llama-3-8b-bnb-4bit This llama model was trained 2x faster with [Unsloth](https://github.com/unslothai/unsloth) and Huggingface's TRL library. [](https://github.com/unslothai/unsloth) ## Usage Examples ```python # Load model directly from transformers import AutoTokenizer, AutoModelForCausalLM tokenizer = AutoTokenizer.from_pretrained("umarigan/LLama-3-8B-Instruction-tr") model = AutoModelForCausalLM.from_pretrained("umarigan/LLama-3-8B-Instruction-tr") alpaca_prompt = """ Görev: {} Girdi: {} Cevap: {}""" inputs = tokenizer( [ alpaca_prompt.format( "bir haftada 3 kilo verebileceğim 5 öneri sunabilir misin?", # Görev "", # Girdi "", # Cevap - boş bırakın! ) ], return_tensors = "pt") outputs = model.generate(**inputs, max_new_tokens = 64, use_cache = True) tokenizer.batch_decode(outputs) Output: <|begin_of_text|> Görev: bir haftada 3 kilo verebileceğim 5 öneri sunabilir misin? Girdi: Cevap: 1. Yemeklerinizde daha az tuz kullanın. 2. Daha fazla sebze ve meyve tüketin. 3. Daha fazla su için. 4. Daha fazla egzersiz yapın. 5. Daha fazla uyku alın.<|end_of_text|> ```