tkesgin commited on
Commit
4d9c8eb
1 Parent(s): ea29e73

Upload 11 files

Browse files
.gitattributes CHANGED
@@ -33,3 +33,4 @@ saved_model/**/* filter=lfs diff=lfs merge=lfs -text
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
 
 
33
  *.zip filter=lfs diff=lfs merge=lfs -text
34
  *.zst filter=lfs diff=lfs merge=lfs -text
35
  *tfevents* filter=lfs diff=lfs merge=lfs -text
36
+ model_cover.png filter=lfs diff=lfs merge=lfs -text
README.md CHANGED
@@ -1,3 +1,127 @@
1
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
2
  license: mit
 
 
 
 
 
 
 
 
 
 
 
3
  ---
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
  ---
2
+ widget:
3
+ - text: "Türkiye'nin başkenti neresidir?"
4
+ example_title: "Başkent"
5
+ - text: "Su kıtlığı sorunlarına karşı çözümler neler olabilir?"
6
+ example_title: "Su Kıtlığı"
7
+ - text: "Yapay zeka işsizlik riski yaratıyor mu?"
8
+ example_title: "Yapay Zeka İşsizlik Riski"
9
+ - text: "Aşağıdaki makale için bir başlık önerin: Bu makale, işletmelerin müşterilerle iletişim kurma biçiminde devrim yaratmada internetin oynadığı rolü incelemektedir."
10
+ example_title: "Başlık Üret"
11
+ - text: "Aşağıdaki bağlamda orijinal bir şey söyleyin: Bir iş görüşmesini yeni bitirdiniz ve işverene bu pozisyona olan ilginizi göstermek istiyorsunuz."
12
+ example_title: "Role Gir"
13
+ - text: "Bir şirketin siber güvenliğini güçlendirmek için alınması gereken önlemler nelerdir?"
14
+ example_title: "Siber Güvenlik"
15
+ - text: "En popüler 5 programlama dili nedir?"
16
+ example_title: "Programlama Dilleri"
17
+ - text: "İnsanlık tarihinde en büyük etki yaratan birkaç icadı say."
18
+ example_title: "İcatlar"
19
+ - text: "Çok sayıda kitap okumak bir çocuğa hangi becerileri kazandırır?"
20
+ example_title: "Kitap Okumak"
21
+ - text: "Şu konuyla ilgili 5 anahtar kelimeden oluşan bir liste oluşturun: iklim değişikliği"
22
+ example_title: "İklim Değişikliği Anahtar Kelimeler"
23
+ - text: "Bilgisayarların faydaları nelerdir?"
24
+ example_title: "Bilgisayarların Faydaları"
25
+
26
  license: mit
27
+ language:
28
+ - tr
29
+ pipeline_tag: text-generation
30
+ base_model: ytu-ce-cosmos/turkish-gpt2-medium
31
+
32
+ tags:
33
+ - Turkish
34
+ - turkish
35
+ - gpt2
36
+ - instruction-tuning
37
+ - alpaca
38
  ---
39
+ <img src="./model_cover.png" width="400px"/>
40
+
41
+ # turkish-gpt2-medium-350m-instruct-v0.1
42
+
43
+ Derived from ytu-ce-cosmos/turkish-gpt2-medium, this model is a Turkish Language Model (LLM) finetuned with a dataset consisting of 35K instructions.
44
+ Due to the diverse nature of the training data, which includes websites, books, and other text sources, this model can exhibit biases and generate wrong answers. Users should be aware of these biases and use the model responsibly.
45
+
46
+ ## Quickstart
47
+
48
+ ```python
49
+ import torch
50
+ from transformers import AutoTokenizer, GPT2LMHeadModel
51
+ from transformers import pipeline
52
+ device = torch.device("cuda" if torch.cuda.is_available() else "cpu")
53
+ device_id = 0 if torch.cuda.is_available() else -1
54
+ model = GPT2LMHeadModel.from_pretrained("ytu-ce-cosmos/turkish-gpt2-medium-350m-instruct-v0.1").to(device)
55
+ tokenizer = AutoTokenizer.from_pretrained("ytu-ce-cosmos/turkish-gpt2-medium-350m-instruct-v0.1")
56
+ text_generator = pipeline('text-generation', model=model, tokenizer=tokenizer, device=device_id, max_new_tokens=256)
57
+ def get_model_response(instruction):
58
+ instruction_prompt = f"### Kullanıcı:\n{instruction}\n### Asistan:\n"
59
+ result = text_generator(instruction_prompt)
60
+ generated_response = result[0]['generated_text']
61
+ return generated_response[len(instruction_prompt):]
62
+ model_response = get_model_response("Evde egzersiz yapmanın avantajlarını açıkla.")
63
+ print(model_response)
64
+ """
65
+ Evde egzersiz yapmak, gelişmiş fiziksel ve zihinsel sağlık için harika bir yoldur. Düzenli egzersizin, artan enerji seviyeleri, gelişmiş kas gücü ve esnekliği, gelişmiş uyku kalitesi ve daha iyi genel esenlik dahil olmak üzere birçok faydası vardır. Evde egzersiz yapmak ayrıca stresi azaltmaya, kas gücünü artırmaya ve genel sağlığı iyileştirmeye yardımcı olabilir.
66
+ """
67
+ ```
68
+
69
+ To use the chat template:
70
+
71
+ ```python
72
+ chat_generator = pipeline("conversational", model=model, tokenizer=tokenizer, device=device_id, max_new_tokens=256)
73
+ messages = [
74
+ {"role": "user", "content": "Evde egzersiz yapmanın avantajlarını açıkla."}
75
+ ]
76
+ chat_outputs = chat_generator(messages)
77
+ print(chat_outputs)
78
+ """
79
+ Conversation id: 236ffc4a-2a36-4191-92fb-90d6753df1ae
80
+ user: Evde egzersiz yapmanın avantajlarını açıkla.
81
+ assistant: Evde egzersiz yapmak, gelişmiş fiziksel ve zihinsel sağlık için sayısız avantaj sunar. Düzenli egzersiz, stresi azaltmaya, kas gücünü artırmaya ve genel sağlığı iyileştirmeye yardımcı olabilir. Ayrıca, evde egzersiz yapmak, daha iyi uyku kalitesi, artan enerji seviyeleri ve gelişmiş bilişsel işlevler gibi daha iyi fiziksel ve zihinsel sağlık sonuçları sağlayabilir. Evde egzersiz yapmak ayrıca, gelişmiş esneklik, denge ve koordinasyon, gelişmiş kalp sağlığı ve gelişmiş kemik sağlığı dahil olmak üzere gelişmiş fiziksel ve zihinsel sağlık yararları sağlayabilir.
82
+ """
83
+ ```
84
+
85
+ ----------
86
+
87
+ ### Training Details
88
+
89
+ - We've meticulously fine-tuned this model with a 35,000-instruction Turkish dataset to enhance its precision and adaptability.
90
+
91
+ - By employing LoRA (Low-Rank Adaptation), we have successfully propelled this model to the pinnacle of its performance capabilities.
92
+ - **LoRA** Config:
93
+ * rank = 256
94
+ * lora_alpha = 512
95
+ * lora_dropout = 0.05
96
+ * bias="none"
97
+ * task_type="CAUSAL_LM"
98
+
99
+ - In addition to monitoring loss, we successfully integrated Rouge calculations into our system's evaluation metrics.
100
+ - One of the innovative techniques we adopted involved employing a model to cleanse our data.
101
+
102
+ *Further details will be provided in the forthcoming paper.*
103
+
104
+ ----------
105
+
106
+ ### Model Description
107
+ - **Developed by:** ytu-ce-cosmos
108
+ - **Finetuned from model :** `ytu-ce-cosmos/turkish-gpt2-medium`
109
+
110
+ # Acknowledgments
111
+ - Thanks to the generous support from the Hugging Face team, it is possible to download models from their S3 storage 🤗
112
+
113
+ ----------
114
+
115
+ ### Citation
116
+ Paper coming soon 😊
117
+
118
+ ----------
119
+
120
+ ### Framework versions
121
+
122
+ - PEFT 0.9.0
123
+
124
+ ### Contact
125
+ COSMOS AI Research Group, Yildiz Technical University Computer Engineering Department <br>
126
+ https://cosmos.yildiz.edu.tr/ <br>
127
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<|stop|>": 50257
3
+ }
config.json ADDED
@@ -0,0 +1,48 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "ytu-ce-cosmos/turkish-gpt2-medium",
3
+ "activation_function": "gelu_new",
4
+ "architectures": [
5
+ "GPT2LMHeadModel"
6
+ ],
7
+ "attn_pdrop": 0.1,
8
+ "bos_token_id": 0,
9
+ "embd_pdrop": 0.1,
10
+ "eos_token_id": 0,
11
+ "initializer_range": 0.02,
12
+ "layer_norm_epsilon": 1e-05,
13
+ "model_type": "gpt2",
14
+ "n_ctx": 1024,
15
+ "n_embd": 1024,
16
+ "n_head": 16,
17
+ "n_inner": null,
18
+ "n_layer": 24,
19
+ "n_positions": 1024,
20
+ "n_special": 0,
21
+ "pad_token_id": 0,
22
+ "predict_special_tokens": true,
23
+ "reorder_and_upcast_attn": false,
24
+ "resid_pdrop": 0.1,
25
+ "scale_attn_by_inverse_layer_idx": false,
26
+ "scale_attn_weights": true,
27
+ "summary_activation": null,
28
+ "summary_first_dropout": 0.1,
29
+ "summary_proj_to_labels": true,
30
+ "summary_type": "cls_index",
31
+ "summary_use_proj": true,
32
+ "task_specific_params": {
33
+ "text-generation": {
34
+ "do_sample": true,
35
+ "bos_token_id": 0,
36
+ "eos_token_id": 50257,
37
+ "max_length": 256,
38
+ "pad_token_id": 0,
39
+ "repetition_penalty": 1.1,
40
+ "temperature": 0.3,
41
+ "top_p": 0.9
42
+ }
43
+ },
44
+ "torch_dtype": "float32",
45
+ "transformers_version": "4.39.1",
46
+ "use_cache": true,
47
+ "vocab_size": 50258
48
+ }
generation_config.json ADDED
@@ -0,0 +1,12 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_from_model_config": true,
3
+ "bos_token_id": 0,
4
+ "do_sample": true,
5
+ "eos_token_id": 50257,
6
+ "max_length": 256,
7
+ "pad_token_id": 0,
8
+ "repetition_penalty": 1.1,
9
+ "temperature": 0.3,
10
+ "top_p": 0.9,
11
+ "transformers_version": "4.38.2"
12
+ }
merges.txt ADDED
The diff for this file is too large to render. See raw diff
 
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:007de82aee9300c00fc073c987be186356ee180dec3bfe37724108208c875af4
3
+ size 1419326976
model_cover.png ADDED

Git LFS Details

  • SHA256: 59ed2d57e845a1d995352c818f79f4669e4a45f9c9f5345c7311a43477f3ad6f
  • Pointer size: 132 Bytes
  • Size of remote file: 1.56 MB
special_tokens_map.json ADDED
@@ -0,0 +1,18 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<|endoftext|>",
4
+ "lstrip": false,
5
+ "normalized": true,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "eos_token": "<|stop|>",
10
+ "pad_token": "<|endoftext|>",
11
+ "unk_token": {
12
+ "content": "<|endoftext|>",
13
+ "lstrip": false,
14
+ "normalized": true,
15
+ "rstrip": false,
16
+ "single_word": false
17
+ }
18
+ }
tokenizer.json ADDED
The diff for this file is too large to render. See raw diff
 
tokenizer_config.json ADDED
@@ -0,0 +1,31 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "add_bos_token": false,
3
+ "add_prefix_space": false,
4
+ "added_tokens_decoder": {
5
+ "0": {
6
+ "content": "<|endoftext|>",
7
+ "lstrip": false,
8
+ "normalized": true,
9
+ "rstrip": false,
10
+ "single_word": false,
11
+ "special": true
12
+ },
13
+ "50257": {
14
+ "content": "<|stop|>",
15
+ "lstrip": false,
16
+ "normalized": true,
17
+ "rstrip": false,
18
+ "single_word": false,
19
+ "special": false
20
+ }
21
+ },
22
+ "bos_token": "<|endoftext|>",
23
+ "chat_template": "{% for message in (messages[-4:] if messages|length >= 4 and messages[-4].role == 'user' else messages[-3:] if messages|length > 3 else messages) %}{% if message.role == 'user' %}### Kullanıcı:\n{{ message.content }}\n{% elif message.role == 'assistant' %}### Asistan:\n{{ message.content }}\n{% endif %}{% endfor %}{% if messages[-1]['role'] == 'user' %}### Asistan:\n{% endif %}",
24
+ "clean_up_tokenization_spaces": true,
25
+ "eos_token": "<|stop|>",
26
+ "errors": "replace",
27
+ "model_max_length": 1000000000000000019884624838656,
28
+ "pad_token": "<|endoftext|>",
29
+ "tokenizer_class": "GPT2Tokenizer",
30
+ "unk_token": "<|endoftext|>"
31
+ }
vocab.json ADDED
The diff for this file is too large to render. See raw diff