anhtuansh commited on
Commit
5d302d6
1 Parent(s): 64a0192

Add new SentenceTransformer model.

Browse files
1_Pooling/config.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "word_embedding_dimension": 768,
3
+ "pooling_mode_cls_token": false,
4
+ "pooling_mode_mean_tokens": true,
5
+ "pooling_mode_max_tokens": false,
6
+ "pooling_mode_mean_sqrt_len_tokens": false,
7
+ "pooling_mode_weightedmean_tokens": false,
8
+ "pooling_mode_lasttoken": false,
9
+ "include_prompt": true
10
+ }
README.md ADDED
@@ -0,0 +1,873 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ ---
2
+ language:
3
+ - en
4
+ license: apache-2.0
5
+ library_name: sentence-transformers
6
+ tags:
7
+ - sentence-transformers
8
+ - sentence-similarity
9
+ - feature-extraction
10
+ - generated_from_trainer
11
+ - dataset_size:10248
12
+ - loss:MatryoshkaLoss
13
+ - loss:MultipleNegativesRankingLoss
14
+ base_model: bkai-foundation-models/vietnamese-bi-encoder
15
+ datasets: []
16
+ metrics:
17
+ - cosine_accuracy@1
18
+ - cosine_accuracy@3
19
+ - cosine_accuracy@5
20
+ - cosine_accuracy@10
21
+ - cosine_precision@1
22
+ - cosine_precision@3
23
+ - cosine_precision@5
24
+ - cosine_precision@10
25
+ - cosine_recall@1
26
+ - cosine_recall@3
27
+ - cosine_recall@5
28
+ - cosine_recall@10
29
+ - cosine_ndcg@10
30
+ - cosine_mrr@10
31
+ - cosine_map@100
32
+ widget:
33
+ - source_sentence: Tại khoản 1, Điều 5. Nghị định số 03/2016/NĐ-CP ngày 05/01/2016
34
+ của Chính phủ quy định Hồ sơ thành lập đơn vị tự vệ trong doanh nghiệp như sau:a)
35
+ Văn bản đề nghị thành lập đơn vị tự vệ của người quản lý doanh nghiệp;b) Kế hoạch
36
+ xây dựng lực lượng tự vệ của doanh nghiệp;c) Danh sách cán bộ, công chức, viên
37
+ chức, người lao động tham gia tổ chức tự vệ của doanh nghiệp;d) Văn bản của cơ
38
+ quan chức năng thẩm định việc thành lập tự vệ của doanh nghiệp.
39
+ sentences:
40
+ - "Căn cứ pháp lý thủ tục thay đổi nội dung đăng ký hoạt động của Văn phòng công\
41
+ \ chứng \nnhận sáp nhập?"
42
+ - Doanh nghiệp muốn thực hiện phân loại trang thiết bị y tế thì phải làm như thế
43
+ nào?
44
+ - Hồ sơ thành lập đơn vị tự vệ trong doanh nghiệp được quy định như thế nào?
45
+ - source_sentence: Căn cứ Khoản 2 Điều 11 “Điều kiện về an ninh, trật tự đối với kinh
46
+ doanh dịch vụ bảo vệ” của Nghị định số 96/2016/NĐ-CP ngày 01/7/2016 của Chính
47
+ phủ quy định điều kiện về an ninh, trật tự đối với một số ngành, nghề đầu tư kinh
48
+ doanh có điều kiện “Người chịu trách nhiệm về an ninh, trật tự của cơ sở kinh
49
+ doanh dịch vụ bảo vệ ….. không phải là người chịu trách nhiệm về an ninh, trật
50
+ tự của cơ sở kinh doanh dịch vụ bảo vệ mà trong 24 tháng liền kề trước đó đã bị
51
+ thu hồi không có thời hạn Giấy chứng nhận đủ điều kiện về an ninh, trật tự” .Như
52
+ vậy, anh có thể thành lập công ty mới kinh doanh dịch vụ bảo vệ theo quy định
53
+ của pháp luật.
54
+ sentences:
55
+ - Trong thời hạn bao nhiêu ngày làm việc kể từ ngày nhận được thông báo hoàn tất
56
+ việc mua bán, chuyển nhượng Phần vốn góp của tổ chức tài chính vi mô, Ngân hàng
57
+ Nhà nước ra quyết định sửa đổi, bổ sung Giấy phép của tổ chức tài chính vi mô?
58
+ - Công ty kinh doanh nhân viên bảo vệ của tôi đã từng bị thu hồi không thời hạn
59
+ Giấy chứng nhận đủ điều kiện về an ninh trật tự cách đây 2 năm. Hiện giờ tôi muốn
60
+ thành lập công ty mới thì có được không?
61
+ - 'Thủ tục: Điều chỉnh tên dự án đầu tư, tên và địa chỉ nhà đầu tư trong Giấy chứng
62
+ nhận đăng ký đầu tư gồm các thành phần hồ sơ nào?'
63
+ - source_sentence: Quy trình tạo và gửi hồ sơ thủ tục hành chính gồm các bước sau:(i)
64
+ Truy cập và đăng nhập vào trang dịch vụ công bằng tài khoản được cấp(ii) Lựa chọn
65
+ loại TTHC đề nghị khen thưởng(iii) Tải các thành phần hồ sơ của TTHC lên dịch
66
+ vụ công(iv) Xác nhận việc tạo mới hồ sơ và chuyển cho lãnh đạo phê duyệt(v) Lãnh
67
+ đạo đăng nhập bằng tài khoản được cấp và phê duyệt gửi hồ sơ
68
+ sentences:
69
+ - Quy định đối với người nước ngoài và hoạt động kinh tế ở khu vực bảo vệ và vành
70
+ đai an toàn?
71
+ - Hồ sơ đề nghị cấp Giấy chứng nhận doanh nghiệp công nghệ cao gồm những gì và được
72
+ nộp ở đâu?
73
+ - Quy trình tạo và gửi một hồ sơ TTHC trên dịch vụ công gồm những bước nào?
74
+ - source_sentence: Mẫu số 02 Thông tư số 02/2013/TT-BNV.
75
+ sentences:
76
+ - Thời gian xử lý các thủ tục chứng thư số là bao lâu?
77
+ - Tố cáo cán bộ, công chức, viên chức trong cơ quan mà hiện nay cơ quan đó đã giải
78
+ thể thì ai là người giải quyết?
79
+ - Điều lệ mẫu của quỹ xã hội, quỹ từ thiện được quy định ở văn bản nào?
80
+ - source_sentence: '<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
81
+ style="color:black;">Căn cứ Điều 108, Luật Thú y số 79/2015/QH 13 ngày 19/6/2015
82
+ của Quốc hội và Điều 21 Nghị định số 35/2016/NĐ-CP ngày 15/5/2016 của Chính phủ
83
+ quy định về hành nghề thú y như sau;</span></p>
84
+
85
+
86
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><strong><span
87
+ style="color:black;">1. Điều kiện hành nghề thú y:</span></strong></p>
88
+
89
+
90
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
91
+ style="color:black;">- Có đạo đức nghề nghiệp;</span></p>
92
+
93
+
94
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
95
+ style="color:black;">- Có đủ sức khỏe hành nghề.</span></p>
96
+
97
+
98
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
99
+ style="letter-spacing:-.2pt;"><span style="color:black;">- Có Chứng chỉ hành nghề
100
+ thú y phù hợp với từng loại hình hành nghề thú y.</span></span></p>
101
+
102
+
103
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><strong><span
104
+ style="color:black;">2. Điều kiện để cấp chứng chỉ hành nghề thú y:</span></strong></p>
105
+
106
+
107
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
108
+ style="color:black;">a.&nbsp;</span><span style="color:black;">Người hành nghề
109
+ chẩn đoán, chữa bệnh, phẫu thuật động vật, tư vấn các hoạt động liên quan đến
110
+ lĩnh vực thú y tối thiểu phải có bằng trung cấp chuyên ngành thú y, chăn nuôi
111
+ thú y hoặc trung cấp nuôi&nbsp;</span><span style="color:black;">tr</span><span
112
+ style="color:black;">ồng thủy sản, bệnh&nbsp;học thủy sản đối với hành nghề thú
113
+ y thủy sản. Người hành nghề tiêm phòng cho động vật phải có chứng chỉ tốt nghiệp
114
+ lớp đào tạo về kỹ thuật do cơ quan quản lý nhà nước có thẩm quyền cấp tỉnh cấp.</span></p>
115
+
116
+
117
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
118
+ style="color:black;">b.&nbsp;Người phụ&nbsp;trách kỹ thuật của cơ sở phẫu thuật
119
+ động vật, khám bệnh, chẩn đoán bệnh, xét nghiệm bệnh động vật phải có bằng đại
120
+ học&nbsp;trở lên chuyên ngành thú y, chăn nuôi thú y hoặc nuôi&nbsp;trồng thủy
121
+ sản, bệnh học thủy sản đối với hành nghề thú y thủy sản.</span></p>
122
+
123
+
124
+ <p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span
125
+ style="color:black;">c.&nbsp;Người buôn bán thuốc thú y phải có bằng trung cấp
126
+ trở&nbsp;lên chuyên ngành thú y, chăn nuôi thú y hoặc trung cấp nuôi trồng thủy
127
+ sản, bệnh học thủy sản đối với hành nghề thú y thủy sản.</span></p>'
128
+ sentences:
129
+ - Căn cứ pháp lý thủ tục cấp Giấy chứng nhận tổ chức đủ điều kiện hoạt động
130
+ giám định sở hữu công nghiệp
131
+ - 'Điều kiện để hành nghề và cấp chứng chỉ hành nghề thú y đối với các loại hình:
132
+ Tiêm phòng, chữa bệnh, phẫu thuật động vật; tư vấn các hoạt động liên quan đến
133
+ lĩnh vực thú y; khám bệnh, chẩn đoán bệnh, xét nghiệm bệnh động vật; buôn bán
134
+ thuốc thú y?'
135
+ - Trường hợp đã có chứng thư số ký duyệt nghiệp vụ dịch vụ công liên quan đến chứng
136
+ thư số, nếu người sử dụng muốn đăng ký để ký duyệtnghiệp vụ dịch vụ công khác
137
+ như Mã ngân hàng, Thanh toán liên ngân hàng (TTLNH), Thi đua – Khen thưởng, Thanh
138
+ toán thì cần phải làm thủ tục gì?
139
+ pipeline_tag: sentence-similarity
140
+ model-index:
141
+ - name: vietnamese-bi-encoder Financial Matryoshka - 2
142
+ results:
143
+ - task:
144
+ type: information-retrieval
145
+ name: Information Retrieval
146
+ dataset:
147
+ name: dim 768
148
+ type: dim_768
149
+ metrics:
150
+ - type: cosine_accuracy@1
151
+ value: 0.5329236172080772
152
+ name: Cosine Accuracy@1
153
+ - type: cosine_accuracy@3
154
+ value: 0.6988586479367866
155
+ name: Cosine Accuracy@3
156
+ - type: cosine_accuracy@5
157
+ value: 0.7603160667251976
158
+ name: Cosine Accuracy@5
159
+ - type: cosine_accuracy@10
160
+ value: 0.8138718173836699
161
+ name: Cosine Accuracy@10
162
+ - type: cosine_precision@1
163
+ value: 0.5329236172080772
164
+ name: Cosine Precision@1
165
+ - type: cosine_precision@3
166
+ value: 0.2329528826455955
167
+ name: Cosine Precision@3
168
+ - type: cosine_precision@5
169
+ value: 0.1520632133450395
170
+ name: Cosine Precision@5
171
+ - type: cosine_precision@10
172
+ value: 0.08138718173836698
173
+ name: Cosine Precision@10
174
+ - type: cosine_recall@1
175
+ value: 0.5329236172080772
176
+ name: Cosine Recall@1
177
+ - type: cosine_recall@3
178
+ value: 0.6988586479367866
179
+ name: Cosine Recall@3
180
+ - type: cosine_recall@5
181
+ value: 0.7603160667251976
182
+ name: Cosine Recall@5
183
+ - type: cosine_recall@10
184
+ value: 0.8138718173836699
185
+ name: Cosine Recall@10
186
+ - type: cosine_ndcg@10
187
+ value: 0.6735784668494285
188
+ name: Cosine Ndcg@10
189
+ - type: cosine_mrr@10
190
+ value: 0.6285285756093483
191
+ name: Cosine Mrr@10
192
+ - type: cosine_map@100
193
+ value: 0.6338528205835894
194
+ name: Cosine Map@100
195
+ - task:
196
+ type: information-retrieval
197
+ name: Information Retrieval
198
+ dataset:
199
+ name: dim 512
200
+ type: dim_512
201
+ metrics:
202
+ - type: cosine_accuracy@1
203
+ value: 0.5364354697102721
204
+ name: Cosine Accuracy@1
205
+ - type: cosine_accuracy@3
206
+ value: 0.6997366110623354
207
+ name: Cosine Accuracy@3
208
+ - type: cosine_accuracy@5
209
+ value: 0.762071992976295
210
+ name: Cosine Accuracy@5
211
+ - type: cosine_accuracy@10
212
+ value: 0.8086040386303776
213
+ name: Cosine Accuracy@10
214
+ - type: cosine_precision@1
215
+ value: 0.5364354697102721
216
+ name: Cosine Precision@1
217
+ - type: cosine_precision@3
218
+ value: 0.23324553702077844
219
+ name: Cosine Precision@3
220
+ - type: cosine_precision@5
221
+ value: 0.152414398595259
222
+ name: Cosine Precision@5
223
+ - type: cosine_precision@10
224
+ value: 0.08086040386303775
225
+ name: Cosine Precision@10
226
+ - type: cosine_recall@1
227
+ value: 0.5364354697102721
228
+ name: Cosine Recall@1
229
+ - type: cosine_recall@3
230
+ value: 0.6997366110623354
231
+ name: Cosine Recall@3
232
+ - type: cosine_recall@5
233
+ value: 0.762071992976295
234
+ name: Cosine Recall@5
235
+ - type: cosine_recall@10
236
+ value: 0.8086040386303776
237
+ name: Cosine Recall@10
238
+ - type: cosine_ndcg@10
239
+ value: 0.6733400704768767
240
+ name: Cosine Ndcg@10
241
+ - type: cosine_mrr@10
242
+ value: 0.6297514528199337
243
+ name: Cosine Mrr@10
244
+ - type: cosine_map@100
245
+ value: 0.6355829264231957
246
+ name: Cosine Map@100
247
+ - task:
248
+ type: information-retrieval
249
+ name: Information Retrieval
250
+ dataset:
251
+ name: dim 256
252
+ type: dim_256
253
+ metrics:
254
+ - type: cosine_accuracy@1
255
+ value: 0.5311676909569798
256
+ name: Cosine Accuracy@1
257
+ - type: cosine_accuracy@3
258
+ value: 0.6892010535557507
259
+ name: Cosine Accuracy@3
260
+ - type: cosine_accuracy@5
261
+ value: 0.7550482879719052
262
+ name: Cosine Accuracy@5
263
+ - type: cosine_accuracy@10
264
+ value: 0.8068481123792801
265
+ name: Cosine Accuracy@10
266
+ - type: cosine_precision@1
267
+ value: 0.5311676909569798
268
+ name: Cosine Precision@1
269
+ - type: cosine_precision@3
270
+ value: 0.22973368451858353
271
+ name: Cosine Precision@3
272
+ - type: cosine_precision@5
273
+ value: 0.15100965759438104
274
+ name: Cosine Precision@5
275
+ - type: cosine_precision@10
276
+ value: 0.08068481123792799
277
+ name: Cosine Precision@10
278
+ - type: cosine_recall@1
279
+ value: 0.5311676909569798
280
+ name: Cosine Recall@1
281
+ - type: cosine_recall@3
282
+ value: 0.6892010535557507
283
+ name: Cosine Recall@3
284
+ - type: cosine_recall@5
285
+ value: 0.7550482879719052
286
+ name: Cosine Recall@5
287
+ - type: cosine_recall@10
288
+ value: 0.8068481123792801
289
+ name: Cosine Recall@10
290
+ - type: cosine_ndcg@10
291
+ value: 0.6689063830436761
292
+ name: Cosine Ndcg@10
293
+ - type: cosine_mrr@10
294
+ value: 0.624737307858467
295
+ name: Cosine Mrr@10
296
+ - type: cosine_map@100
297
+ value: 0.6307311118555528
298
+ name: Cosine Map@100
299
+ - task:
300
+ type: information-retrieval
301
+ name: Information Retrieval
302
+ dataset:
303
+ name: dim 128
304
+ type: dim_128
305
+ metrics:
306
+ - type: cosine_accuracy@1
307
+ value: 0.5074626865671642
308
+ name: Cosine Accuracy@1
309
+ - type: cosine_accuracy@3
310
+ value: 0.6681299385425812
311
+ name: Cosine Accuracy@3
312
+ - type: cosine_accuracy@5
313
+ value: 0.7339771729587358
314
+ name: Cosine Accuracy@5
315
+ - type: cosine_accuracy@10
316
+ value: 0.7998244073748902
317
+ name: Cosine Accuracy@10
318
+ - type: cosine_precision@1
319
+ value: 0.5074626865671642
320
+ name: Cosine Precision@1
321
+ - type: cosine_precision@3
322
+ value: 0.22270997951419372
323
+ name: Cosine Precision@3
324
+ - type: cosine_precision@5
325
+ value: 0.14679543459174713
326
+ name: Cosine Precision@5
327
+ - type: cosine_precision@10
328
+ value: 0.07998244073748902
329
+ name: Cosine Precision@10
330
+ - type: cosine_recall@1
331
+ value: 0.5074626865671642
332
+ name: Cosine Recall@1
333
+ - type: cosine_recall@3
334
+ value: 0.6681299385425812
335
+ name: Cosine Recall@3
336
+ - type: cosine_recall@5
337
+ value: 0.7339771729587358
338
+ name: Cosine Recall@5
339
+ - type: cosine_recall@10
340
+ value: 0.7998244073748902
341
+ name: Cosine Recall@10
342
+ - type: cosine_ndcg@10
343
+ value: 0.6520119825054099
344
+ name: Cosine Ndcg@10
345
+ - type: cosine_mrr@10
346
+ value: 0.6049092771436932
347
+ name: Cosine Mrr@10
348
+ - type: cosine_map@100
349
+ value: 0.6107424205763605
350
+ name: Cosine Map@100
351
+ - task:
352
+ type: information-retrieval
353
+ name: Information Retrieval
354
+ dataset:
355
+ name: dim 64
356
+ type: dim_64
357
+ metrics:
358
+ - type: cosine_accuracy@1
359
+ value: 0.47146619841966636
360
+ name: Cosine Accuracy@1
361
+ - type: cosine_accuracy@3
362
+ value: 0.6347673397717296
363
+ name: Cosine Accuracy@3
364
+ - type: cosine_accuracy@5
365
+ value: 0.6918349429323969
366
+ name: Cosine Accuracy@5
367
+ - type: cosine_accuracy@10
368
+ value: 0.7638279192273925
369
+ name: Cosine Accuracy@10
370
+ - type: cosine_precision@1
371
+ value: 0.47146619841966636
372
+ name: Cosine Precision@1
373
+ - type: cosine_precision@3
374
+ value: 0.2115891132572432
375
+ name: Cosine Precision@3
376
+ - type: cosine_precision@5
377
+ value: 0.13836698858647933
378
+ name: Cosine Precision@5
379
+ - type: cosine_precision@10
380
+ value: 0.07638279192273925
381
+ name: Cosine Precision@10
382
+ - type: cosine_recall@1
383
+ value: 0.47146619841966636
384
+ name: Cosine Recall@1
385
+ - type: cosine_recall@3
386
+ value: 0.6347673397717296
387
+ name: Cosine Recall@3
388
+ - type: cosine_recall@5
389
+ value: 0.6918349429323969
390
+ name: Cosine Recall@5
391
+ - type: cosine_recall@10
392
+ value: 0.7638279192273925
393
+ name: Cosine Recall@10
394
+ - type: cosine_ndcg@10
395
+ value: 0.6148557873571111
396
+ name: Cosine Ndcg@10
397
+ - type: cosine_mrr@10
398
+ value: 0.5675923603272155
399
+ name: Cosine Mrr@10
400
+ - type: cosine_map@100
401
+ value: 0.5737454249088845
402
+ name: Cosine Map@100
403
+ ---
404
+
405
+ # vietnamese-bi-encoder Financial Matryoshka - 2
406
+
407
+ This is a [sentence-transformers](https://www.SBERT.net) model finetuned from [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder). It maps sentences & paragraphs to a 768-dimensional dense vector space and can be used for semantic textual similarity, semantic search, paraphrase mining, text classification, clustering, and more.
408
+
409
+ ## Model Details
410
+
411
+ ### Model Description
412
+ - **Model Type:** Sentence Transformer
413
+ - **Base model:** [bkai-foundation-models/vietnamese-bi-encoder](https://huggingface.co/bkai-foundation-models/vietnamese-bi-encoder) <!-- at revision 84f9d9ada0d1a3c37557398b9ae9fcedcdf40be0 -->
414
+ - **Maximum Sequence Length:** 256 tokens
415
+ - **Output Dimensionality:** 768 tokens
416
+ - **Similarity Function:** Cosine Similarity
417
+ <!-- - **Training Dataset:** Unknown -->
418
+ - **Language:** en
419
+ - **License:** apache-2.0
420
+
421
+ ### Model Sources
422
+
423
+ - **Documentation:** [Sentence Transformers Documentation](https://sbert.net)
424
+ - **Repository:** [Sentence Transformers on GitHub](https://github.com/UKPLab/sentence-transformers)
425
+ - **Hugging Face:** [Sentence Transformers on Hugging Face](https://huggingface.co/models?library=sentence-transformers)
426
+
427
+ ### Full Model Architecture
428
+
429
+ ```
430
+ SentenceTransformer(
431
+ (0): Transformer({'max_seq_length': 256, 'do_lower_case': False}) with Transformer model: RobertaModel
432
+ (1): Pooling({'word_embedding_dimension': 768, 'pooling_mode_cls_token': False, 'pooling_mode_mean_tokens': True, 'pooling_mode_max_tokens': False, 'pooling_mode_mean_sqrt_len_tokens': False, 'pooling_mode_weightedmean_tokens': False, 'pooling_mode_lasttoken': False, 'include_prompt': True})
433
+ )
434
+ ```
435
+
436
+ ## Usage
437
+
438
+ ### Direct Usage (Sentence Transformers)
439
+
440
+ First install the Sentence Transformers library:
441
+
442
+ ```bash
443
+ pip install -U sentence-transformers
444
+ ```
445
+
446
+ Then you can load this model and run inference.
447
+ ```python
448
+ from sentence_transformers import SentenceTransformer
449
+
450
+ # Download from the 🤗 Hub
451
+ model = SentenceTransformer("anhtuansh/vietnamese-bi-encoder-financial-matryoshka-2")
452
+ # Run inference
453
+ sentences = [
454
+ '<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">Căn cứ Điều 108, Luật Thú y số 79/2015/QH 13 ngày 19/6/2015 của Quốc hội và Điều 21 Nghị định số 35/2016/NĐ-CP ngày 15/5/2016 của Chính phủ quy định về hành nghề thú y như sau;</span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><strong><span style="color:black;">1. Điều kiện hành nghề thú y:</span></strong></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">- Có đạo đức nghề nghiệp;</span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">- Có đủ sức khỏe hành nghề.</span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="letter-spacing:-.2pt;"><span style="color:black;">- Có Chứng chỉ hành nghề thú y phù hợp với từng loại hình hành nghề thú y.</span></span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><strong><span style="color:black;">2. Điều kiện để cấp chứng chỉ hành nghề thú y:</span></strong></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">a.&nbsp;</span><span style="color:black;">Người hành nghề chẩn đoán, chữa bệnh, phẫu thuật động vật, tư vấn các hoạt động liên quan đến lĩnh vực thú y tối thiểu phải có bằng trung cấp chuyên ngành thú y, chăn nuôi thú y hoặc trung cấp nuôi&nbsp;</span><span style="color:black;">tr</span><span style="color:black;">ồng thủy sản, bệnh&nbsp;học thủy sản đối với hành nghề thú y thủy sản. Người hành nghề tiêm phòng cho động vật phải có chứng chỉ tốt nghiệp lớp đào tạo về kỹ thuật do cơ quan quản lý nhà nước có thẩm quyền cấp tỉnh cấp.</span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">b.&nbsp;Người phụ&nbsp;trách kỹ thuật của cơ sở phẫu thuật động vật, khám bệnh, chẩn đoán bệnh, xét nghiệm bệnh động vật phải có bằng đại học&nbsp;trở lên chuyên ngành thú y, chăn nuôi thú y hoặc nuôi&nbsp;trồng thủy sản, bệnh học thủy sản đối với hành nghề thú y thủy sản.</span></p>\n\n<p style="margin-top:6.0pt;text-align:justify;text-indent:36.0pt;line-height:16.0pt;background:white;"><span style="color:black;">c.&nbsp;Người buôn bán thuốc thú y phải có bằng trung cấp trở&nbsp;lên chuyên ngành thú y, chăn nuôi thú y hoặc trung cấp nuôi trồng thủy sản, bệnh học thủy sản đối với hành nghề thú y thủy sản.</span></p>',
455
+ 'Điều kiện để hành nghề và cấp chứng chỉ hành nghề thú y đối với các loại hình: Tiêm phòng, chữa bệnh, phẫu thuật động vật; tư vấn các hoạt động liên quan đến lĩnh vực thú y; khám bệnh, chẩn đoán bệnh, xét nghiệm bệnh động vật; buôn bán thuốc thú y?',
456
+ 'Trường hợp đã có chứng thư số ký duyệt nghiệp vụ dịch vụ công liên quan đến chứng thư số, nếu người sử dụng muốn đăng ký để ký duyệtnghiệp vụ dịch vụ công khác như Mã ngân hàng, Thanh toán liên ngân hàng (TTLNH), Thi đua – Khen thưởng, Thanh toán thì cần phải làm thủ tục gì?',
457
+ ]
458
+ embeddings = model.encode(sentences)
459
+ print(embeddings.shape)
460
+ # [3, 768]
461
+
462
+ # Get the similarity scores for the embeddings
463
+ similarities = model.similarity(embeddings, embeddings)
464
+ print(similarities.shape)
465
+ # [3, 3]
466
+ ```
467
+
468
+ <!--
469
+ ### Direct Usage (Transformers)
470
+
471
+ <details><summary>Click to see the direct usage in Transformers</summary>
472
+
473
+ </details>
474
+ -->
475
+
476
+ <!--
477
+ ### Downstream Usage (Sentence Transformers)
478
+
479
+ You can finetune this model on your own dataset.
480
+
481
+ <details><summary>Click to expand</summary>
482
+
483
+ </details>
484
+ -->
485
+
486
+ <!--
487
+ ### Out-of-Scope Use
488
+
489
+ *List how the model may foreseeably be misused and address what users ought not to do with the model.*
490
+ -->
491
+
492
+ ## Evaluation
493
+
494
+ ### Metrics
495
+
496
+ #### Information Retrieval
497
+ * Dataset: `dim_768`
498
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
499
+
500
+ | Metric | Value |
501
+ |:--------------------|:-----------|
502
+ | cosine_accuracy@1 | 0.5329 |
503
+ | cosine_accuracy@3 | 0.6989 |
504
+ | cosine_accuracy@5 | 0.7603 |
505
+ | cosine_accuracy@10 | 0.8139 |
506
+ | cosine_precision@1 | 0.5329 |
507
+ | cosine_precision@3 | 0.233 |
508
+ | cosine_precision@5 | 0.1521 |
509
+ | cosine_precision@10 | 0.0814 |
510
+ | cosine_recall@1 | 0.5329 |
511
+ | cosine_recall@3 | 0.6989 |
512
+ | cosine_recall@5 | 0.7603 |
513
+ | cosine_recall@10 | 0.8139 |
514
+ | cosine_ndcg@10 | 0.6736 |
515
+ | cosine_mrr@10 | 0.6285 |
516
+ | **cosine_map@100** | **0.6339** |
517
+
518
+ #### Information Retrieval
519
+ * Dataset: `dim_512`
520
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
521
+
522
+ | Metric | Value |
523
+ |:--------------------|:-----------|
524
+ | cosine_accuracy@1 | 0.5364 |
525
+ | cosine_accuracy@3 | 0.6997 |
526
+ | cosine_accuracy@5 | 0.7621 |
527
+ | cosine_accuracy@10 | 0.8086 |
528
+ | cosine_precision@1 | 0.5364 |
529
+ | cosine_precision@3 | 0.2332 |
530
+ | cosine_precision@5 | 0.1524 |
531
+ | cosine_precision@10 | 0.0809 |
532
+ | cosine_recall@1 | 0.5364 |
533
+ | cosine_recall@3 | 0.6997 |
534
+ | cosine_recall@5 | 0.7621 |
535
+ | cosine_recall@10 | 0.8086 |
536
+ | cosine_ndcg@10 | 0.6733 |
537
+ | cosine_mrr@10 | 0.6298 |
538
+ | **cosine_map@100** | **0.6356** |
539
+
540
+ #### Information Retrieval
541
+ * Dataset: `dim_256`
542
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
543
+
544
+ | Metric | Value |
545
+ |:--------------------|:-----------|
546
+ | cosine_accuracy@1 | 0.5312 |
547
+ | cosine_accuracy@3 | 0.6892 |
548
+ | cosine_accuracy@5 | 0.755 |
549
+ | cosine_accuracy@10 | 0.8068 |
550
+ | cosine_precision@1 | 0.5312 |
551
+ | cosine_precision@3 | 0.2297 |
552
+ | cosine_precision@5 | 0.151 |
553
+ | cosine_precision@10 | 0.0807 |
554
+ | cosine_recall@1 | 0.5312 |
555
+ | cosine_recall@3 | 0.6892 |
556
+ | cosine_recall@5 | 0.755 |
557
+ | cosine_recall@10 | 0.8068 |
558
+ | cosine_ndcg@10 | 0.6689 |
559
+ | cosine_mrr@10 | 0.6247 |
560
+ | **cosine_map@100** | **0.6307** |
561
+
562
+ #### Information Retrieval
563
+ * Dataset: `dim_128`
564
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
565
+
566
+ | Metric | Value |
567
+ |:--------------------|:-----------|
568
+ | cosine_accuracy@1 | 0.5075 |
569
+ | cosine_accuracy@3 | 0.6681 |
570
+ | cosine_accuracy@5 | 0.734 |
571
+ | cosine_accuracy@10 | 0.7998 |
572
+ | cosine_precision@1 | 0.5075 |
573
+ | cosine_precision@3 | 0.2227 |
574
+ | cosine_precision@5 | 0.1468 |
575
+ | cosine_precision@10 | 0.08 |
576
+ | cosine_recall@1 | 0.5075 |
577
+ | cosine_recall@3 | 0.6681 |
578
+ | cosine_recall@5 | 0.734 |
579
+ | cosine_recall@10 | 0.7998 |
580
+ | cosine_ndcg@10 | 0.652 |
581
+ | cosine_mrr@10 | 0.6049 |
582
+ | **cosine_map@100** | **0.6107** |
583
+
584
+ #### Information Retrieval
585
+ * Dataset: `dim_64`
586
+ * Evaluated with [<code>InformationRetrievalEvaluator</code>](https://sbert.net/docs/package_reference/sentence_transformer/evaluation.html#sentence_transformers.evaluation.InformationRetrievalEvaluator)
587
+
588
+ | Metric | Value |
589
+ |:--------------------|:-----------|
590
+ | cosine_accuracy@1 | 0.4715 |
591
+ | cosine_accuracy@3 | 0.6348 |
592
+ | cosine_accuracy@5 | 0.6918 |
593
+ | cosine_accuracy@10 | 0.7638 |
594
+ | cosine_precision@1 | 0.4715 |
595
+ | cosine_precision@3 | 0.2116 |
596
+ | cosine_precision@5 | 0.1384 |
597
+ | cosine_precision@10 | 0.0764 |
598
+ | cosine_recall@1 | 0.4715 |
599
+ | cosine_recall@3 | 0.6348 |
600
+ | cosine_recall@5 | 0.6918 |
601
+ | cosine_recall@10 | 0.7638 |
602
+ | cosine_ndcg@10 | 0.6149 |
603
+ | cosine_mrr@10 | 0.5676 |
604
+ | **cosine_map@100** | **0.5737** |
605
+
606
+ <!--
607
+ ## Bias, Risks and Limitations
608
+
609
+ *What are the known or foreseeable issues stemming from this model? You could also flag here known failure cases or weaknesses of the model.*
610
+ -->
611
+
612
+ <!--
613
+ ### Recommendations
614
+
615
+ *What are recommendations with respect to the foreseeable issues? For example, filtering explicit content.*
616
+ -->
617
+
618
+ ## Training Details
619
+
620
+ ### Training Dataset
621
+
622
+ #### Unnamed Dataset
623
+
624
+
625
+ * Size: 10,248 training samples
626
+ * Columns: <code>positive</code> and <code>anchor</code>
627
+ * Approximate statistics based on the first 1000 samples:
628
+ | | positive | anchor |
629
+ |:--------|:------------------------------------------------------------------------------------|:-----------------------------------------------------------------------------------|
630
+ | type | string | string |
631
+ | details | <ul><li>min: 4 tokens</li><li>mean: 150.46 tokens</li><li>max: 256 tokens</li></ul> | <ul><li>min: 6 tokens</li><li>mean: 37.63 tokens</li><li>max: 210 tokens</li></ul> |
632
+ * Samples:
633
+ | positive | anchor |
634
+ |:---------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|:--------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------------|
635
+ | <code>Theo quy định tại Điều 7, Nghị định số 15/2018/NĐ-CP của Chính phủ về hướng dẫn Luật ATTP. Đối với sản phẩm sản xuất trong nước Hồ sơ đăng ký bản công bố sản phẩm gồm:a) Bản công bố sản phẩm được quy định tại Mẫu số 02 Phụ lục I ban hành kèm theo Nghị định số 15/2018/NĐ-CP của Chính phủ;b) Phiếu kết quả kiểm nghiệm an toàn thực phẩm của sản phẩm trong thời hạn 12 tháng tính đến ngày nộp hồ sơ được cấp bởi phòng kiểm nghiệm được chỉ định hoặc phòng kiểm nghiệm được công nhận phù hợp ISO 17025 gồm các chỉ tiêu an toàn do Bộ Y tế ban hành theo nguyên tắc quản lý rủi ro phù hợp với quy định của quốc tế hoặc các chỉ tiêu an toàn theo các quy chuẩn, tiêu chuẩn tương ứng do tổ chức, cá nhân công bố trong trường hợp chưa có quy định của Bộ Y tế (bản chính hoặc bản sao chứng thực);c) Bằng chứng khoa học chứng minh công dụng của sản phẩm hoặc của thành phần tạo nên công dụng đã công bố (bản chính hoặc bản sao có xác nhận của tổ chức, cá nhân). Khi sử dụng bằng chứng khoa học về công dụng thành phần của sản phẩm để làm công dụng cho sản phẩm thì liều sử dụng hàng ngày của sản phẩm tối thiểu phải lớn hơn hoặc bằng 15% lượng sử dụng thành phần đó đã nêu trong tài liệu;d) Giấy chứng nhận cơ sở đủ điều kiện an toàn thực phẩm trong trường hợp cơ sở thuộc đối tượng phải cấp giấy chứng nhận cơ sở đủ điều kiện an toàn thực phẩm theo quy định (bản sao có xác nhận của tổ chức, cá nhân);đ) Giấy chứng nhận cơ sở đủ điều kiện an toàn thực phẩm đạt yêu cầu Thực hành sản xuất tốt (GMP) trong trường hợp sản phẩm sản xuất trong nước là thực phẩm bảo vệ sức khỏe áp dụng từ ngày 01 tháng 7 năm 2019 (bản sao có xác nhận của tổ chức, cá nhân).</code> | <code>Hồ sơ công bố đối với nhóm thực phẩm bảo vệ sức khỏe sản xuất trong nước gồm những nội dung gì.</code> |
636
+ | <code>Điểm ưu tiên về đối tượng, khu vực của thí sinh phải đúng quy chế của Bộ Giáo dục và Đào tạo, thống nhất và trùng khớp giữa hồ sơ sơ tuyển và hồ sơ xét tuyển. Khi phát hiện có sự sai sót về chế độ ưu tiên, thí sinh phải liên hệ với cơ quan đăng ký hồ sơ để điều chỉnh, cụ thể:- Về hồ sơ sơ tuyển: Thí sinh phải liên hệ với Ban Chỉ huy Quân sự huyện (trung đoàn hoặc tương đương) để được điều chỉnh, xác nhận và gửi về trường mình đăng ký.- Về hồ sơ xét tuyển: Thí sinh phải liên hệ với Sở Giáo dục và Đào tạo nơi thí sinh đăng ký dự Kỳ thi trung học phổ thông quốc gia để được điều chỉnh.</code> | <code>Nếu sai sót về chế độ ưu tiên theo đối tượng hoặc chế độ ưu tiên theo khu vực trong quá trình kê khai hồ sơ sơ tuyển, xét tuyển thí sinh phải liên hệ ở đâu để được điều chỉnh?</code> |
637
+ | <code>Theo quy định tại Nghị định số 88/2014/NĐ-CP, Tổng Giám đốc, thành viên Hội đồng xếp hạng tín nhiệm, chuyên viên phân tích phải có trình độ từ đại học trở lên thuộc chuyên ngành kinh tế, tài chính, ngân hàng, kế toán, kiểm toán, thống kê, quản trị kinh doanh hoặc chuyên ngành thuộc lĩnh vực kinh doanh của tổ chức được xếp hạng tín nhiệm. Theo đó, khi cung cấp hồ sơ về Tổng Giám đốc, thành viên Hội đồng xếp hạng tín nhiệm, chuyên viên phân tích, doanh nghiệp cần cung cấp bằng cấp đáp ứng điều kiện quy định tại Nghị định số 88/2014/NĐ-CP.</code> | <code>Về hồ sơ của Tổng Giám đốc, thành viên Hội đồng xếp hạng tín nhiệm, chuyên viên phân tích, trường hợp đã cung cấp bằng đại học của người lao động đáp ứng chuyên ngành theo quy định tại Nghị định số 88/2014/NĐ-CP có cần cung cấp các bằng cấp khác như bằng thạc sĩ, tiến sĩ hay không?</code> |
638
+ * Loss: [<code>MatryoshkaLoss</code>](https://sbert.net/docs/package_reference/sentence_transformer/losses.html#matryoshkaloss) with these parameters:
639
+ ```json
640
+ {
641
+ "loss": "MultipleNegativesRankingLoss",
642
+ "matryoshka_dims": [
643
+ 768,
644
+ 512,
645
+ 256,
646
+ 128,
647
+ 64
648
+ ],
649
+ "matryoshka_weights": [
650
+ 1,
651
+ 1,
652
+ 1,
653
+ 1,
654
+ 1
655
+ ],
656
+ "n_dims_per_step": -1
657
+ }
658
+ ```
659
+
660
+ ### Training Hyperparameters
661
+ #### Non-Default Hyperparameters
662
+
663
+ - `eval_strategy`: epoch
664
+ - `per_device_train_batch_size`: 32
665
+ - `per_device_eval_batch_size`: 16
666
+ - `gradient_accumulation_steps`: 32
667
+ - `learning_rate`: 2e-05
668
+ - `num_train_epochs`: 10
669
+ - `lr_scheduler_type`: cosine
670
+ - `warmup_ratio`: 0.1
671
+ - `fp16`: True
672
+ - `tf32`: False
673
+ - `load_best_model_at_end`: True
674
+ - `optim`: adamw_torch_fused
675
+ - `batch_sampler`: no_duplicates
676
+
677
+ #### All Hyperparameters
678
+ <details><summary>Click to expand</summary>
679
+
680
+ - `overwrite_output_dir`: False
681
+ - `do_predict`: False
682
+ - `eval_strategy`: epoch
683
+ - `prediction_loss_only`: True
684
+ - `per_device_train_batch_size`: 32
685
+ - `per_device_eval_batch_size`: 16
686
+ - `per_gpu_train_batch_size`: None
687
+ - `per_gpu_eval_batch_size`: None
688
+ - `gradient_accumulation_steps`: 32
689
+ - `eval_accumulation_steps`: None
690
+ - `learning_rate`: 2e-05
691
+ - `weight_decay`: 0.0
692
+ - `adam_beta1`: 0.9
693
+ - `adam_beta2`: 0.999
694
+ - `adam_epsilon`: 1e-08
695
+ - `max_grad_norm`: 1.0
696
+ - `num_train_epochs`: 10
697
+ - `max_steps`: -1
698
+ - `lr_scheduler_type`: cosine
699
+ - `lr_scheduler_kwargs`: {}
700
+ - `warmup_ratio`: 0.1
701
+ - `warmup_steps`: 0
702
+ - `log_level`: passive
703
+ - `log_level_replica`: warning
704
+ - `log_on_each_node`: True
705
+ - `logging_nan_inf_filter`: True
706
+ - `save_safetensors`: True
707
+ - `save_on_each_node`: False
708
+ - `save_only_model`: False
709
+ - `restore_callback_states_from_checkpoint`: False
710
+ - `no_cuda`: False
711
+ - `use_cpu`: False
712
+ - `use_mps_device`: False
713
+ - `seed`: 42
714
+ - `data_seed`: None
715
+ - `jit_mode_eval`: False
716
+ - `use_ipex`: False
717
+ - `bf16`: False
718
+ - `fp16`: True
719
+ - `fp16_opt_level`: O1
720
+ - `half_precision_backend`: auto
721
+ - `bf16_full_eval`: False
722
+ - `fp16_full_eval`: False
723
+ - `tf32`: False
724
+ - `local_rank`: 0
725
+ - `ddp_backend`: None
726
+ - `tpu_num_cores`: None
727
+ - `tpu_metrics_debug`: False
728
+ - `debug`: []
729
+ - `dataloader_drop_last`: False
730
+ - `dataloader_num_workers`: 0
731
+ - `dataloader_prefetch_factor`: None
732
+ - `past_index`: -1
733
+ - `disable_tqdm`: False
734
+ - `remove_unused_columns`: True
735
+ - `label_names`: None
736
+ - `load_best_model_at_end`: True
737
+ - `ignore_data_skip`: False
738
+ - `fsdp`: []
739
+ - `fsdp_min_num_params`: 0
740
+ - `fsdp_config`: {'min_num_params': 0, 'xla': False, 'xla_fsdp_v2': False, 'xla_fsdp_grad_ckpt': False}
741
+ - `fsdp_transformer_layer_cls_to_wrap`: None
742
+ - `accelerator_config`: {'split_batches': False, 'dispatch_batches': None, 'even_batches': True, 'use_seedable_sampler': True, 'non_blocking': False, 'gradient_accumulation_kwargs': None}
743
+ - `deepspeed`: None
744
+ - `label_smoothing_factor`: 0.0
745
+ - `optim`: adamw_torch_fused
746
+ - `optim_args`: None
747
+ - `adafactor`: False
748
+ - `group_by_length`: False
749
+ - `length_column_name`: length
750
+ - `ddp_find_unused_parameters`: None
751
+ - `ddp_bucket_cap_mb`: None
752
+ - `ddp_broadcast_buffers`: False
753
+ - `dataloader_pin_memory`: True
754
+ - `dataloader_persistent_workers`: False
755
+ - `skip_memory_metrics`: True
756
+ - `use_legacy_prediction_loop`: False
757
+ - `push_to_hub`: False
758
+ - `resume_from_checkpoint`: None
759
+ - `hub_model_id`: None
760
+ - `hub_strategy`: every_save
761
+ - `hub_private_repo`: False
762
+ - `hub_always_push`: False
763
+ - `gradient_checkpointing`: False
764
+ - `gradient_checkpointing_kwargs`: None
765
+ - `include_inputs_for_metrics`: False
766
+ - `eval_do_concat_batches`: True
767
+ - `fp16_backend`: auto
768
+ - `push_to_hub_model_id`: None
769
+ - `push_to_hub_organization`: None
770
+ - `mp_parameters`:
771
+ - `auto_find_batch_size`: False
772
+ - `full_determinism`: False
773
+ - `torchdynamo`: None
774
+ - `ray_scope`: last
775
+ - `ddp_timeout`: 1800
776
+ - `torch_compile`: False
777
+ - `torch_compile_backend`: None
778
+ - `torch_compile_mode`: None
779
+ - `dispatch_batches`: None
780
+ - `split_batches`: None
781
+ - `include_tokens_per_second`: False
782
+ - `include_num_input_tokens_seen`: False
783
+ - `neftune_noise_alpha`: None
784
+ - `optim_target_modules`: None
785
+ - `batch_eval_metrics`: False
786
+ - `batch_sampler`: no_duplicates
787
+ - `multi_dataset_batch_sampler`: proportional
788
+
789
+ </details>
790
+
791
+ ### Training Logs
792
+ | Epoch | Step | Training Loss | dim_128_cosine_map@100 | dim_256_cosine_map@100 | dim_512_cosine_map@100 | dim_64_cosine_map@100 | dim_768_cosine_map@100 |
793
+ |:----------:|:-------:|:-------------:|:----------------------:|:----------------------:|:----------------------:|:---------------------:|:----------------------:|
794
+ | 0.9969 | 10 | 3.4117 | 0.5202 | 0.5352 | 0.5441 | 0.4739 | 0.5412 |
795
+ | 1.9938 | 20 | 1.8953 | 0.5655 | 0.5913 | 0.5970 | 0.5291 | 0.6007 |
796
+ | 2.9907 | 30 | 1.2229 | 0.5828 | 0.6072 | 0.6140 | 0.5454 | 0.6193 |
797
+ | 3.9875 | 40 | 0.81 | 0.5936 | 0.6202 | 0.6224 | 0.5576 | 0.6268 |
798
+ | 4.9844 | 50 | 0.594 | 0.6039 | 0.6246 | 0.6303 | 0.5656 | 0.6285 |
799
+ | 5.9813 | 60 | 0.4648 | 0.6056 | 0.6267 | 0.6346 | 0.5693 | 0.6313 |
800
+ | 6.9782 | 70 | 0.3797 | 0.6092 | 0.6292 | 0.6357 | 0.5724 | 0.6333 |
801
+ | 7.9751 | 80 | 0.3436 | 0.6101 | 0.6299 | 0.6360 | 0.5728 | 0.6339 |
802
+ | 8.9720 | 90 | 0.3227 | 0.6102 | 0.6306 | 0.6360 | 0.5746 | 0.6339 |
803
+ | **9.9688** | **100** | **0.3198** | **0.6107** | **0.6307** | **0.6356** | **0.5737** | **0.6339** |
804
+
805
+ * The bold row denotes the saved checkpoint.
806
+
807
+ ### Framework Versions
808
+ - Python: 3.10.13
809
+ - Sentence Transformers: 3.0.1
810
+ - Transformers: 4.41.2
811
+ - PyTorch: 2.1.2
812
+ - Accelerate: 0.29.3
813
+ - Datasets: 2.19.1
814
+ - Tokenizers: 0.19.1
815
+
816
+ ## Citation
817
+
818
+ ### BibTeX
819
+
820
+ #### Sentence Transformers
821
+ ```bibtex
822
+ @inproceedings{reimers-2019-sentence-bert,
823
+ title = "Sentence-BERT: Sentence Embeddings using Siamese BERT-Networks",
824
+ author = "Reimers, Nils and Gurevych, Iryna",
825
+ booktitle = "Proceedings of the 2019 Conference on Empirical Methods in Natural Language Processing",
826
+ month = "11",
827
+ year = "2019",
828
+ publisher = "Association for Computational Linguistics",
829
+ url = "https://arxiv.org/abs/1908.10084",
830
+ }
831
+ ```
832
+
833
+ #### MatryoshkaLoss
834
+ ```bibtex
835
+ @misc{kusupati2024matryoshka,
836
+ title={Matryoshka Representation Learning},
837
+ author={Aditya Kusupati and Gantavya Bhatt and Aniket Rege and Matthew Wallingford and Aditya Sinha and Vivek Ramanujan and William Howard-Snyder and Kaifeng Chen and Sham Kakade and Prateek Jain and Ali Farhadi},
838
+ year={2024},
839
+ eprint={2205.13147},
840
+ archivePrefix={arXiv},
841
+ primaryClass={cs.LG}
842
+ }
843
+ ```
844
+
845
+ #### MultipleNegativesRankingLoss
846
+ ```bibtex
847
+ @misc{henderson2017efficient,
848
+ title={Efficient Natural Language Response Suggestion for Smart Reply},
849
+ author={Matthew Henderson and Rami Al-Rfou and Brian Strope and Yun-hsuan Sung and Laszlo Lukacs and Ruiqi Guo and Sanjiv Kumar and Balint Miklos and Ray Kurzweil},
850
+ year={2017},
851
+ eprint={1705.00652},
852
+ archivePrefix={arXiv},
853
+ primaryClass={cs.CL}
854
+ }
855
+ ```
856
+
857
+ <!--
858
+ ## Glossary
859
+
860
+ *Clearly define terms in order to be accessible across audiences.*
861
+ -->
862
+
863
+ <!--
864
+ ## Model Card Authors
865
+
866
+ *Lists the people who create the model card, providing recognition and accountability for the detailed work that goes into its construction.*
867
+ -->
868
+
869
+ <!--
870
+ ## Model Card Contact
871
+
872
+ *Provides a way for people who have updates to the Model Card, suggestions, or questions, to contact the Model Card authors.*
873
+ -->
added_tokens.json ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ {
2
+ "<mask>": 64000
3
+ }
bpe.codes ADDED
The diff for this file is too large to render. See raw diff
 
config.json ADDED
@@ -0,0 +1,28 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "_name_or_path": "bkai-foundation-models/vietnamese-bi-encoder",
3
+ "architectures": [
4
+ "RobertaModel"
5
+ ],
6
+ "attention_probs_dropout_prob": 0.1,
7
+ "bos_token_id": 0,
8
+ "classifier_dropout": null,
9
+ "eos_token_id": 2,
10
+ "hidden_act": "gelu",
11
+ "hidden_dropout_prob": 0.1,
12
+ "hidden_size": 768,
13
+ "initializer_range": 0.02,
14
+ "intermediate_size": 3072,
15
+ "layer_norm_eps": 1e-05,
16
+ "max_position_embeddings": 258,
17
+ "model_type": "roberta",
18
+ "num_attention_heads": 12,
19
+ "num_hidden_layers": 12,
20
+ "pad_token_id": 1,
21
+ "position_embedding_type": "absolute",
22
+ "tokenizer_class": "PhobertTokenizer",
23
+ "torch_dtype": "float32",
24
+ "transformers_version": "4.41.2",
25
+ "type_vocab_size": 1,
26
+ "use_cache": true,
27
+ "vocab_size": 64001
28
+ }
config_sentence_transformers.json ADDED
@@ -0,0 +1,10 @@
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "__version__": {
3
+ "sentence_transformers": "3.0.1",
4
+ "transformers": "4.41.2",
5
+ "pytorch": "2.1.2"
6
+ },
7
+ "prompts": {},
8
+ "default_prompt_name": null,
9
+ "similarity_fn_name": null
10
+ }
model.safetensors ADDED
@@ -0,0 +1,3 @@
 
 
 
 
1
+ version https://git-lfs.github.com/spec/v1
2
+ oid sha256:d8a9a0c723e7a8a02012cac63f2599b3b722885ebae1127a5700986253bbcd7d
3
+ size 540015464
modules.json ADDED
@@ -0,0 +1,14 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ [
2
+ {
3
+ "idx": 0,
4
+ "name": "0",
5
+ "path": "",
6
+ "type": "sentence_transformers.models.Transformer"
7
+ },
8
+ {
9
+ "idx": 1,
10
+ "name": "1",
11
+ "path": "1_Pooling",
12
+ "type": "sentence_transformers.models.Pooling"
13
+ }
14
+ ]
sentence_bert_config.json ADDED
@@ -0,0 +1,4 @@
 
 
 
 
 
1
+ {
2
+ "max_seq_length": 256,
3
+ "do_lower_case": false
4
+ }
special_tokens_map.json ADDED
@@ -0,0 +1,51 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "bos_token": {
3
+ "content": "<s>",
4
+ "lstrip": false,
5
+ "normalized": false,
6
+ "rstrip": false,
7
+ "single_word": false
8
+ },
9
+ "cls_token": {
10
+ "content": "<s>",
11
+ "lstrip": false,
12
+ "normalized": false,
13
+ "rstrip": false,
14
+ "single_word": false
15
+ },
16
+ "eos_token": {
17
+ "content": "</s>",
18
+ "lstrip": false,
19
+ "normalized": false,
20
+ "rstrip": false,
21
+ "single_word": false
22
+ },
23
+ "mask_token": {
24
+ "content": "<mask>",
25
+ "lstrip": false,
26
+ "normalized": false,
27
+ "rstrip": false,
28
+ "single_word": false
29
+ },
30
+ "pad_token": {
31
+ "content": "<pad>",
32
+ "lstrip": false,
33
+ "normalized": false,
34
+ "rstrip": false,
35
+ "single_word": false
36
+ },
37
+ "sep_token": {
38
+ "content": "</s>",
39
+ "lstrip": false,
40
+ "normalized": false,
41
+ "rstrip": false,
42
+ "single_word": false
43
+ },
44
+ "unk_token": {
45
+ "content": "<unk>",
46
+ "lstrip": false,
47
+ "normalized": false,
48
+ "rstrip": false,
49
+ "single_word": false
50
+ }
51
+ }
tokenizer_config.json ADDED
@@ -0,0 +1,54 @@
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
 
1
+ {
2
+ "added_tokens_decoder": {
3
+ "0": {
4
+ "content": "<s>",
5
+ "lstrip": false,
6
+ "normalized": false,
7
+ "rstrip": false,
8
+ "single_word": false,
9
+ "special": true
10
+ },
11
+ "1": {
12
+ "content": "<pad>",
13
+ "lstrip": false,
14
+ "normalized": false,
15
+ "rstrip": false,
16
+ "single_word": false,
17
+ "special": true
18
+ },
19
+ "2": {
20
+ "content": "</s>",
21
+ "lstrip": false,
22
+ "normalized": false,
23
+ "rstrip": false,
24
+ "single_word": false,
25
+ "special": true
26
+ },
27
+ "3": {
28
+ "content": "<unk>",
29
+ "lstrip": false,
30
+ "normalized": false,
31
+ "rstrip": false,
32
+ "single_word": false,
33
+ "special": true
34
+ },
35
+ "64000": {
36
+ "content": "<mask>",
37
+ "lstrip": false,
38
+ "normalized": false,
39
+ "rstrip": false,
40
+ "single_word": false,
41
+ "special": true
42
+ }
43
+ },
44
+ "bos_token": "<s>",
45
+ "clean_up_tokenization_spaces": true,
46
+ "cls_token": "<s>",
47
+ "eos_token": "</s>",
48
+ "mask_token": "<mask>",
49
+ "model_max_length": 256,
50
+ "pad_token": "<pad>",
51
+ "sep_token": "</s>",
52
+ "tokenizer_class": "PhobertTokenizer",
53
+ "unk_token": "<unk>"
54
+ }
vocab.txt ADDED
The diff for this file is too large to render. See raw diff