aashish1904 commited on
Commit
3021a53
1 Parent(s): 6cd6f9f

Upload README.md with huggingface_hub

Browse files
Files changed (1) hide show
  1. README.md +163 -0
README.md ADDED
@@ -0,0 +1,163 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+
2
+ ---
3
+
4
+ language:
5
+ - fr
6
+ - en
7
+ pipeline_tag: text-generation
8
+ tags:
9
+ - chat
10
+ - llama
11
+ - llama3
12
+ - llama3.1
13
+ - finetune
14
+ - legal
15
+ - legalkit
16
+ library_name: transformers
17
+ inference: false
18
+ model_creator: MaziyarPanahi
19
+ quantized_by: MaziyarPanahi
20
+ base_model: meta-llama/Meta-Llama-3.1-8B-Instruct
21
+ model_name: calme-2.3-legalkit-8b
22
+ datasets:
23
+ - MaziyarPanahi/calme_legalkit_cot
24
+
25
+ ---
26
+
27
+ ![](https://lh7-rt.googleusercontent.com/docsz/AD_4nXeiuCm7c8lEwEJuRey9kiVZsRn2W-b4pWlu3-X534V3YmVuVc2ZL-NXg2RkzSOOS2JXGHutDuyyNAUtdJI65jGTo8jT9Y99tMi4H4MqL44Uc5QKG77B0d6-JfIkZHFaUA71-RtjyYZWVIhqsNZcx8-OMaA?key=xt3VSDoCbmTY7o-cwwOFwQ)
28
+
29
+ # QuantFactory/calme-2.3-legalkit-8b-GGUF
30
+ This is quantized version of [MaziyarPanahi/calme-2.3-legalkit-8b](https://huggingface.co/MaziyarPanahi/calme-2.3-legalkit-8b) created using llama.cpp
31
+
32
+ # Original Model Card
33
+
34
+
35
+ <img src="./calme-2-legalkit.webp" alt="Calme-2 Models" width="800" style="margin-left:'auto' margin-right:'auto' display:'block'"/>
36
+
37
+ # MaziyarPanahi/calme-2.3-legalkit-8b
38
+
39
+ This model is an advanced iteration of the powerful `meta-llama/Meta-Llama-3.1-8B-Instruct`, specifically fine-tuned to enhance its capabilities in the legal domain. The fine-tuning process utilized a synthetically generated dataset derived from the French [LegalKit](https://huggingface.co/datasets/louisbrulenaudet/legalkit), a comprehensive legal language resource.
40
+
41
+ To create this specialized dataset, I used the `NousResearch/Nous-Hermes-2-Mixtral-8x7B-DPO` model in conjunction with Hugging Face's Inference Endpoint. This approach allowed for the generation of high-quality, synthetic data that incorporates Chain of Thought (CoT) and advanced reasoning in its responses.
42
+
43
+ The resulting model combines the robust foundation of `Llama-3.1-8B` with tailored legal knowledge and enhanced reasoning capabilities. This makes it particularly well-suited for tasks requiring in-depth legal analysis, interpretation, and application of French legal concepts.
44
+
45
+
46
+ # ⚡ Quantized GGUF
47
+
48
+ All GGUF models are available here: [MaziyarPanahi/calme-2.3-legalkit-8b-GGUF](https://huggingface.co/MaziyarPanahi/calme-2.3-legalkit-8b-GGUF)
49
+
50
+
51
+ # 🏆 [Open LLM Leaderboard Evaluation Results](https://huggingface.co/spaces/HuggingFaceH4/open_llm_leaderboard)
52
+
53
+ Leaderboard 2 coming soon!
54
+
55
+ ## TruthfulQA:
56
+ ```
57
+ | Tasks |Version|Filter|n-shot|Metric|Value | |Stderr|
58
+ |--------------|------:|------|-----:|------|-----:|---|-----:|
59
+ |truthfulqa_mc2| 2|none | 0|acc |0.5481|± |0.0152|
60
+ ```
61
+
62
+ ## WinoGrande:
63
+ ```
64
+ | Tasks |Version|Filter|n-shot|Metric|Value | |Stderr|
65
+ |----------|------:|------|-----:|------|-----:|---|-----:|
66
+ |winogrande| 1|none | 5|acc |0.7758|± |0.0117|
67
+ ```
68
+
69
+ ## ARC (Challenge) :
70
+ ```
71
+ | Tasks |Version|Filter|n-shot| Metric |Value | |Stderr|
72
+ |-------------|------:|------|-----:|--------|-----:|---|-----:|
73
+ |arc_challenge| 1|none | 25|acc |0.5666|± |0.0145|
74
+ | | |none | 25|acc_norm|0.6101|± |0.0143|
75
+ ```
76
+
77
+ ## GSM8K:
78
+ ```
79
+ |Tasks|Version| Filter |n-shot| Metric |Value| |Stderr|
80
+ |-----|------:|----------------|-----:|-----------|----:|---|-----:|
81
+ |gsm8k| 3|strict-match | 5|exact_match|0.771|± |0.0116|
82
+ | | |flexible-extract| 5|exact_match|0.771|± |0.0116|
83
+ ```
84
+
85
+ # Prompt Template
86
+
87
+ This model uses `ChatML` prompt template:
88
+
89
+ ```
90
+ <|begin_of_text|><|start_header_id|>system<|end_header_id|>
91
+
92
+ {system_prompt}<|eot_id|><|start_header_id|>user<|end_header_id|>
93
+
94
+ {prompt}<|eot_id|><|start_header_id|>assistant<|end_header_id|>
95
+
96
+ ````
97
+
98
+ # Example
99
+
100
+ ```
101
+ <|begin_of_text|><|begin_of_text|><|start_header_id|>user<|end_header_id|>
102
+
103
+ Quelles sont les modalités d'utilisation d'un contingent annuel d'heures supplémentaires et de son éventuel dépassement qui sont soumises à consultation du comité social et économique au moins une fois par an en l'absence d'accord?<|eot_id|><|start_header_id|>assistant<|end_header_id|>
104
+
105
+ Pour répondre à la question posée, nous allons examiner le texte du Code du travail, article L3121-44, et analyser les informations données étape par étape. Nous chercherons à comprendre les modalités d'utilisation d'un contingent annuel d'heures supplémentaires et de son éventuel dépassement qui sont soumises à consultation du comité social et économique au moins une fois par an en l'absence d'accord.
106
+
107
+ ### Analyse de l'Article L3121-44 du Code du Travail
108
+
109
+ 1. **Texte de l'Article L3121-44** :
110
+ "A défaut d'accord prévu à l'article L. 3121-42, les modalités d'utilisation du contingent annuel d'heures supplémentaires ainsi que celles relatives à son dépassement mentionnées aux articles L. 3121-37 à L. 3121-40 font l'objet d'une consultation du comité social et économique au moins une fois par an."
111
+
112
+ 2. **Explication par Éléments** :
113
+
114
+ - **Absence d'Accord** :
115
+ L'article indique qu'en l'absence d'un accord entre l'employeur et les représentants des salariés (comme prévu à l'article L. 3121-42), certaines règles s'appliquent.
116
+
117
+ - **Contingent Annuel d'Heures Supplémentaires** :
118
+ Le contingent annuel d'heures supplémentaires est un nombre d'heures supplémentaires que les employeurs peuvent demander à leurs salariés de travailler au-delà de leur temps de travail réglementaire, sans que cela soit considéré comme du travail excessif.
119
+
120
+ - **Modalités d'Utilisation et Dépassement** :
121
+ Les modalités d'utilisation du contingent annuel d'heures supplémentaires et celles relatives à son dépassement sont définies dans les articles L. 3121-37 à L. 3121-40 du Code du travail.
122
+
123
+ - **Consultation du Comité Social et Économique** :
124
+ En l'absence d'accord, ces modalités doivent être soumises à la consultation du comité social et économique (CSE) au moins une fois par an. Le CSE est une instance représentative du personnel qui a pour mission de participer à la gestion des affaires sociales et économiques de l'entreprise.
125
+
126
+ ### Réponse Basée sur l'Analyse
127
+
128
+ En l'absence d'accord entre l'employeur et les représentants des salariés concernant les modalités d'utilisation d'un contingent annuel d'heures supplémentaires et de son éventuel dépassement, ces modalités doivent être soumises à la consultation du comité social et économique (CSE) au moins une fois par an. Ces modalités sont définies dans les articles L. 3121-37 à L. 3121-40 du Code du travail.
129
+
130
+ ### Justification et Conclusion
131
+
132
+ Cette réponse est cohérente avec l'entrée fournie. Elle explique clairement les conséquences d'un manque d'accord entre les parties concernées et souligne l'importance de la consultation du comité social et économique dans ce contexte. En utilisant l'article L3121-44 comme base, nous avons développé une compréhension claire et complète des obligations légales en matière de consultation du CSE en l'absence d'accord sur les heures supplémentaires et leur dépassement.<|eot_id|>
133
+ ```
134
+
135
+ # How to use
136
+
137
+
138
+ ```python
139
+
140
+ # Use a pipeline as a high-level helper
141
+
142
+ from transformers import pipeline
143
+
144
+ messages = [
145
+ {"role": "user", "content": "Who are you?"},
146
+ ]
147
+ pipe = pipeline("text-generation", model="MaziyarPanahi/calme-2.3-legalkit-8b")
148
+ pipe(messages)
149
+
150
+
151
+ # Load model directly
152
+
153
+ from transformers import AutoTokenizer, AutoModelForCausalLM
154
+
155
+ tokenizer = AutoTokenizer.from_pretrained("MaziyarPanahi/calme-2.3-legalkit-8b")
156
+ model = AutoModelForCausalLM.from_pretrained("MaziyarPanahi/calme-2.3-legalkit-8b")
157
+ ```
158
+
159
+
160
+
161
+ # Ethical Considerations
162
+
163
+ As with any large language model, users should be aware of potential biases and limitations. We recommend implementing appropriate safeguards and human oversight when deploying this model in production environments.