Update README.md
Browse files
README.md
CHANGED
@@ -38,7 +38,7 @@ tr= ["Sohbet robotları son yıllarda yaygın bir şekilde kullanılmaya başlan
|
|
38 |
"Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
|
39 |
"BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
|
40 |
"TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
|
41 |
-
encoded_tr = tokenizer(tr, return_tensors="pt").to("cuda")
|
42 |
generated_tokens = model.generate(**encoded_tr, forced_bos_token_id=tokenizer.lang_code_to_id["en_XX"])
|
43 |
en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
44 |
```
|
|
|
38 |
"Bu çalışmanın sonunda, BERT ve BERT ile TF-IDF birleşimi modellerin diğer kombinasyonlardan daha iyi sonuç verdiği görülmüştür. ",
|
39 |
"BERT gibi ön eğitimli modellerden faydalanmanın daha iyi bağlamsal anlama sağladığı ortaya çıkmıştır. ",
|
40 |
"TF-IDF yerleştirmeleri, BERT gösterimi ile birleştirilerek niyet kategorisi tahmininin iyileştirilmesi amaçlanmıştır."]
|
41 |
+
encoded_tr = tokenizer(tr, return_tensors="pt" ,padding=True , truncation=True).to("cuda")
|
42 |
generated_tokens = model.generate(**encoded_tr, forced_bos_token_id=tokenizer.lang_code_to_id["en_XX"])
|
43 |
en = tokenizer.batch_decode(generated_tokens, skip_special_tokens=True)
|
44 |
```
|