Spaces:
Sleeping
Sleeping
token
Browse files
app.py
CHANGED
@@ -8,8 +8,8 @@ model_name = "microsoft/DialoGPT-medium"
|
|
8 |
huggingface_token = os.getenv('HUGGINGFACE_TOKEN')
|
9 |
|
10 |
# Загрузка токенайзера и модели с использованием токена
|
11 |
-
tokenizer = AutoTokenizer.from_pretrained(model_name,
|
12 |
-
model = AutoModelForCausalLM.from_pretrained(model_name,
|
13 |
|
14 |
# Функция для общения с моделью
|
15 |
def chat_with_model(input_text, chat_history=[]):
|
@@ -22,7 +22,7 @@ def chat_with_model(input_text, chat_history=[]):
|
|
22 |
bot_input_ids = new_user_input_ids
|
23 |
|
24 |
# Генерация ответа от модели
|
25 |
-
chat_history = model.generate(bot_input_ids, max_length=1000, pad_token_id=tokenizer.
|
26 |
|
27 |
# Получение текста и вывод ответа
|
28 |
response = tokenizer.decode(chat_history[:, bot_input_ids.shape[-1]:][0], skip_special_tokens=True)
|
|
|
8 |
huggingface_token = os.getenv('HUGGINGFACE_TOKEN')
|
9 |
|
10 |
# Загрузка токенайзера и модели с использованием токена
|
11 |
+
tokenizer = AutoTokenizer.from_pretrained(model_name, token=huggingface_token)
|
12 |
+
model = AutoModelForCausalLM.from_pretrained(model_name, token=huggingface_token)
|
13 |
|
14 |
# Функция для общения с моделью
|
15 |
def chat_with_model(input_text, chat_history=[]):
|
|
|
22 |
bot_input_ids = new_user_input_ids
|
23 |
|
24 |
# Генерация ответа от модели
|
25 |
+
chat_history = model.generate(bot_input_ids, max_length=1000, pad_token_id=tokenizer.pad_token_id)
|
26 |
|
27 |
# Получение текста и вывод ответа
|
28 |
response = tokenizer.decode(chat_history[:, bot_input_ids.shape[-1]:][0], skip_special_tokens=True)
|