Text Generation
Russian
conversational
IlyaGusev commited on
Commit
db1b241
1 Parent(s): 46085bb

Interact fix

Browse files
Files changed (1) hide show
  1. interact.py +11 -3
interact.py CHANGED
@@ -1,15 +1,23 @@
1
  import fire
2
  from llama_cpp import Llama
3
 
4
- MESSAGE_TEMPLATE = "{role}\n{content}"
5
  SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
 
 
6
  BOT_TOKEN = 9225
7
  LINEBREAK_TOKEN = 13
8
 
 
 
 
 
 
 
9
 
10
  def get_message_tokens(model, role, content):
11
- message_text = MESSAGE_TEMPLATE.format(role=role, content=content)
12
- message_tokens = model.tokenize(message_text.encode("utf-8"))
 
13
  message_tokens.append(model.token_eos())
14
  return message_tokens
15
 
 
1
  import fire
2
  from llama_cpp import Llama
3
 
 
4
  SYSTEM_PROMPT = "Ты — Сайга, русскоязычный автоматический ассистент. Ты разговариваешь с людьми и помогаешь им."
5
+ SYSTEM_TOKEN = 1788
6
+ USER_TOKEN = 1404
7
  BOT_TOKEN = 9225
8
  LINEBREAK_TOKEN = 13
9
 
10
+ ROLE_TOKENS = {
11
+ "user": USER_TOKEN,
12
+ "bot": BOT_TOKEN,
13
+ "system": SYSTEM_TOKEN
14
+ }
15
+
16
 
17
  def get_message_tokens(model, role, content):
18
+ message_tokens = model.tokenize(content.encode("utf-8"))
19
+ message_tokens.insert(1, ROLE_TOKENS[role])
20
+ message_tokens.insert(2, LINEBREAK_TOKEN)
21
  message_tokens.append(model.token_eos())
22
  return message_tokens
23