Mel-Iza0 commited on
Commit
728db7f
1 Parent(s): 9f8ef58

Create README.md

Browse files
Files changed (1) hide show
  1. README.md +86 -0
README.md ADDED
@@ -0,0 +1,86 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ license: mit
3
+ library_name: "trl"
4
+ tags:
5
+ - DPO
6
+ - WeniGPT
7
+ base_model: Weni/WeniGPT-2.2.3-Zephyr-7B-LLM_Base_2.0.3_SFT
8
+ model-index:
9
+ - name: Weni/WeniGPT-2.6.1-Zephyr-7B-0.3-reduction-QA-1.0.1_DPO
10
+ results: []
11
+ language: ['pt']
12
+ ---
13
+
14
+ # Weni/WeniGPT-2.6.1-Zephyr-7B-0.3-reduction-QA-1.0.1_DPO
15
+
16
+ This model is a fine-tuned version of [Weni/WeniGPT-2.2.3-Zephyr-7B-LLM_Base_2.0.3_SFT] on the dataset Weni/WeniGPT-QA-1.0.1_DPO with the DPO trainer. It is part of the WeniGPT project for [Weni](https://weni.ai/).
17
+
18
+ It achieves the following results on the evaluation set:
19
+ {'eval_loss': 0.6539124250411987, 'eval_runtime': 182.82, 'eval_samples_per_second': 1.739, 'eval_steps_per_second': 0.219, 'eval_rewards/chosen': 0.919985294342041, 'eval_rewards/rejected': -1.440274953842163, 'eval_rewards/accuracies': 0.05624999850988388, 'eval_rewards/margins': 2.360260009765625, 'eval_logps/rejected': -10.880456924438477, 'eval_logps/chosen': -5.191048622131348, 'eval_logits/rejected': -2.358607769012451, 'eval_logits/chosen': -2.358931541442871, 'epoch': 0.99}
20
+
21
+ ## Intended uses & limitations
22
+
23
+ This model has not been trained to avoid specific intructions.
24
+
25
+ ## Training procedure
26
+
27
+ Finetuning was done on the model Weni/WeniGPT-2.2.3-Zephyr-7B-LLM_Base_2.0.3_SFT with the following prompt:
28
+
29
+ ```
30
+ ---------------------
31
+ Pt:
32
+ ### Instruction:
33
+ Você é um médico tratando um paciente com amnésia. Para responder as perguntas do paciente, você irá ler um texto anteriormente para se contextualizar. Se você trouxer informações desconhecidas, fora do texto lido, poderá deixar o paciente confuso. Se o paciente fizer uma questão sobre informações não presentes no texto, você precisa responder de forma educada que você não tem informação suficiente para responder, pois se tentar responder, pode trazer informações que não ajudarão o paciente recuperar sua memória.Lembre, se não estiver no texto, você precisa responder de forma educada que você não tem informação suficiente para responder. Precisamos ajudar o paciente.
34
+ </s>### Input:
35
+ TEXTO: {context}
36
+
37
+ PERGUNTA: {question}
38
+ </s>
39
+ ### Response:
40
+ RESPOSTA: {chosen_response}</s>
41
+ ### Response:
42
+ RESPOSTA: {rejected_response}</s>
43
+ ---------------------
44
+
45
+ ```
46
+
47
+ ### Training hyperparameters
48
+
49
+ The following hyperparameters were used during training:
50
+ - learning_rate: 0.0005
51
+ - per_device_train_batch_size: 8
52
+ - per_device_eval_batch_size: 8
53
+ - gradient_accumulation_steps: 4
54
+ - num_gpus: 1
55
+ - total_train_batch_size: 32
56
+ - optimizer: AdamW
57
+ - lr_scheduler_type: cosine
58
+ - num_steps: 89
59
+ - quantization_type: bitsandbytes
60
+ - LoRA: ("\n - bits: 4\n - use_exllama: True\n - device_map: auto\n - use_cache: False\n - lora_r: 8\n - lora_alpha: 16\n - lora_dropout: 0.1\n - bias: none\n - target_modules: ['q_proj', 'k_proj', 'v_proj', 'o_proj']\n - task_type: CAUSAL_LM",)
61
+
62
+ ### Training results
63
+
64
+ ### Framework versions
65
+
66
+ - transformers==4.38.2
67
+ - datasets==2.17.1
68
+ - peft==0.8.2
69
+ - safetensors==0.4.2
70
+ - evaluate==0.4.1
71
+ - bitsandbytes==0.42
72
+ - huggingface_hub==0.20.3
73
+ - seqeval==1.2.2
74
+ - optimum==1.17.1
75
+ - auto-gptq==0.7.0
76
+ - gpustat==1.1.1
77
+ - deepspeed==0.13.2
78
+ - wandb==0.16.3
79
+ - trl==0.7.11
80
+ - accelerate==0.27.2
81
+ - coloredlogs==15.0.1
82
+ - traitlets==5.14.1
83
+ - autoawq@https://github.com/casper-hansen/AutoAWQ/releases/download/v0.2.0/autoawq-0.2.0+cu118-cp310-cp310-linux_x86_64.whl
84
+
85
+ ### Hardware
86
+ - Cloud provided: runpod.io