Spaces:
Runtime error
Runtime error
Update app.py
Browse files
app.py
CHANGED
@@ -25,53 +25,38 @@ from loguru import logger
|
|
25 |
url = "https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/blob/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin" # 2.87G
|
26 |
|
27 |
|
28 |
-
prompt_template = """
|
|
|
|
|
|
|
29 |
|
30 |
-
|
|
|
|
|
31 |
|
32 |
-
|
33 |
-
|
|
|
34 |
|
35 |
-
prompt_template = """
|
36 |
-
|
37 |
-
helpfully as possible, while being safe. Your answers
|
38 |
-
should not include any harmful, unethical, racist,
|
39 |
-
sexist, toxic, dangerous, or illegal content. Please
|
40 |
-
ensure that your responses are socially unbiased and
|
41 |
-
positive in nature. If a question does not make any
|
42 |
-
sense, or is not factually coherent, explain why instead
|
43 |
-
of answering something not correct. If you don't know
|
44 |
-
the answer to a question, please don't share false
|
45 |
-
information.
|
46 |
-
User: {prompt}
|
47 |
-
Assistant: """
|
48 |
-
|
49 |
-
prompt_template = """System: You are a helpful assistant.
|
50 |
-
User: {prompt}
|
51 |
-
Assistant: """
|
52 |
-
|
53 |
-
prompt_template = """Question: {question}
|
54 |
-
Answer: Let's work this out in a step by step way to be sure we have the right answer."""
|
55 |
|
56 |
prompt_template = """[INST] <>
|
57 |
-
|
58 |
<>
|
59 |
-
|
60 |
-
What NFL team won the Super Bowl in the year Justin Bieber was born?
|
61 |
[/INST]"""
|
62 |
|
63 |
prompt_template = """[INST] <<SYS>>
|
64 |
-
|
65 |
-
|
66 |
{question} [/INST]
|
67 |
"""
|
68 |
|
69 |
prompt_template = """[INST] <<SYS>>
|
70 |
-
|
71 |
<</SYS>>
|
|
|
72 |
|
73 |
-
{question} [/INST]
|
74 |
-
"""
|
75 |
|
76 |
_ = [elm for elm in prompt_template.splitlines() if elm.strip()]
|
77 |
stop_string = [elm.split(":")[0] + ":" for elm in _][-2]
|
@@ -119,7 +104,7 @@ class GenerationConfig:
|
|
119 |
top_k: int = 50
|
120 |
top_p: float = 0.9
|
121 |
repetition_penalty: float = 1.0
|
122 |
-
max_new_tokens: int =
|
123 |
seed: int = 42
|
124 |
reset: bool = False
|
125 |
stream: bool = True
|
@@ -161,7 +146,7 @@ def user1(user_message, history):
|
|
161 |
|
162 |
def bot_(history):
|
163 |
user_message = history[-1][0]
|
164 |
-
resp = random.choice(["
|
165 |
bot_message = user_message + ": " + resp
|
166 |
history[-1][1] = ""
|
167 |
for character in bot_message:
|
@@ -219,7 +204,7 @@ def predict_api(prompt):
|
|
219 |
top_k=10,
|
220 |
top_p=0.9,
|
221 |
repetition_penalty=1.0,
|
222 |
-
max_new_tokens=
|
223 |
seed=42,
|
224 |
reset=True, # reset history (cache)
|
225 |
stream=False,
|
@@ -254,36 +239,25 @@ css = """
|
|
254 |
.disclaimer {font-variant-caps: all-small-caps; font-size: xx-small;}
|
255 |
.xsmall {font-size: x-small;}
|
256 |
"""
|
257 |
-
etext = """In
|
258 |
-
|
259 |
-
["What is the capital of India"],
|
260 |
-
["How to play Chess? Provide detailed steps."],
|
261 |
-
["If it takes 10 hours to dry 10 clothes, assuming all the clothes are hung together at the same time for drying , then how long will it take to dry a cloth?"],
|
262 |
-
["is infinity + 1 bigger than infinity?"],
|
263 |
-
["Explain the plot of Oppenheimer 2023 movie in a sentence."],
|
264 |
-
["How long does it take to become proficient in French, and what are the best methods for retaining information?"],
|
265 |
-
["What are some common mistakes to avoid when writing code?"],
|
266 |
-
["Build a prompt to generate a beautiful portrait of a horse"],
|
267 |
-
["Suggest four metaphors to describe the benefits of AI"],
|
268 |
-
["Write most important points of Bhagavad Gita"],
|
269 |
-
["Write a summary Why is it so hard to understand Quantum mechanics"],
|
270 |
|
271 |
-
|
272 |
|
273 |
logger.info("start block")
|
274 |
|
275 |
with gr.Blocks(
|
276 |
-
title="
|
277 |
theme=gr.themes.Soft(text_size="sm", spacing_size="sm"),
|
278 |
css=css,
|
279 |
) as block:
|
280 |
# buff_var = gr.State("")
|
281 |
-
with gr.Accordion("
|
282 |
|
283 |
gr.Markdown(
|
284 |
f"""<div style="text-align: center;">
|
285 |
-
<h5>Gradio
|
286 |
-
|
287 |
</div>""",
|
288 |
elem_classes="xsmall",
|
289 |
)
|
@@ -297,7 +271,7 @@ with gr.Blocks(
|
|
297 |
with gr.Column(scale=5):
|
298 |
msg = gr.Textbox(
|
299 |
label="Chat Message Box",
|
300 |
-
placeholder="
|
301 |
show_label=False,
|
302 |
# container=False,
|
303 |
lines=6,
|
@@ -337,10 +311,7 @@ with gr.Blocks(
|
|
337 |
with gr.Accordion("Disclaimer", open=False):
|
338 |
_ = Path(model_loc).name
|
339 |
gr.Markdown(
|
340 |
-
|
341 |
-
"factually accurate information. {_} was trained on various public datasets; while great efforts "
|
342 |
-
"have been taken to clean the pretraining data, it is possible that this model could generate lewd, "
|
343 |
-
"biased, or otherwise offensive outputs.",
|
344 |
elem_classes=["disclaimer"],
|
345 |
)
|
346 |
|
|
|
25 |
url = "https://huggingface.co/TheBloke/Llama-2-7B-Chat-GGML/blob/main/llama-2-7b-chat.ggmlv3.q4_K_M.bin" # 2.87G
|
26 |
|
27 |
|
28 |
+
prompt_template = """Abaixo está uma instrução que descreve uma tarefa. Escreva uma resposta que complete adequadamente o pedido.
|
29 |
+
### Instrução: {user_prompt}
|
30 |
+
### Resposta:
|
31 |
+
"""
|
32 |
|
33 |
+
prompt_template = """Sistema: Você é um assistente prestativo, respeitoso e honesto de Tecnologia da Informação (TI). Sempre responda da maneira mais prestativa possível em português, mantendo a segurança em mente. Suas respostas não devem incluir nenhum conteúdo prejudicial, antiético, racista, sexista, tóxico, perigoso ou ilegal. Por favor, certifique-se de que suas respostas sejam socialmente imparciais e positivas. Se uma pergunta não fizer sentido ou não for factualmente coerente, explique o motivo em vez de dar uma resposta incorreta. Se você não souber a resposta para uma pergunta, por favor, não compartilhe informações falsas.
|
34 |
+
Usuário: {prompt}
|
35 |
+
Assistente: """
|
36 |
|
37 |
+
prompt_template = """Sistema: Você é um assistente prestativo Tecnologia da Informação (TI).
|
38 |
+
Usuário: {prompt}
|
39 |
+
Assistente: """
|
40 |
|
41 |
+
prompt_template = """Pergunta: {question}
|
42 |
+
Resposta: Vamos resolver isso passo a passo para ter certeza de que temos a resposta certa."""
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
43 |
|
44 |
prompt_template = """[INST] <>
|
45 |
+
Você é um assistente prestativo, respeitoso e honesto. Sempre responda da maneira mais prestativa possível em português. Pense passo a passo.
|
46 |
<>
|
47 |
+
Qual time da NFL venceu o Super Bowl no ano em que Justin Bieber nasceu?
|
|
|
48 |
[/INST]"""
|
49 |
|
50 |
prompt_template = """[INST] <<SYS>>
|
51 |
+
Você é um assistente pouco prestativo de Tecnologia da Informação (TI). Sempre responda da maneira mais prestativa possível em português. Pense passo a passo. <</SYS>>
|
|
|
52 |
{question} [/INST]
|
53 |
"""
|
54 |
|
55 |
prompt_template = """[INST] <<SYS>>
|
56 |
+
Você é um assistente de Tecnologia da Informação (TI) prestativo.
|
57 |
<</SYS>>
|
58 |
+
{question} [/INST]"""
|
59 |
|
|
|
|
|
60 |
|
61 |
_ = [elm for elm in prompt_template.splitlines() if elm.strip()]
|
62 |
stop_string = [elm.split(":")[0] + ":" for elm in _][-2]
|
|
|
104 |
top_k: int = 50
|
105 |
top_p: float = 0.9
|
106 |
repetition_penalty: float = 1.0
|
107 |
+
max_new_tokens: int = 1500
|
108 |
seed: int = 42
|
109 |
reset: bool = False
|
110 |
stream: bool = True
|
|
|
146 |
|
147 |
def bot_(history):
|
148 |
user_message = history[-1][0]
|
149 |
+
resp = random.choice(["Como você está?", "I love you"])
|
150 |
bot_message = user_message + ": " + resp
|
151 |
history[-1][1] = ""
|
152 |
for character in bot_message:
|
|
|
204 |
top_k=10,
|
205 |
top_p=0.9,
|
206 |
repetition_penalty=1.0,
|
207 |
+
max_new_tokens=1500, # adjust as needed
|
208 |
seed=42,
|
209 |
reset=True, # reset history (cache)
|
210 |
stream=False,
|
|
|
239 |
.disclaimer {font-variant-caps: all-small-caps; font-size: xx-small;}
|
240 |
.xsmall {font-size: x-small;}
|
241 |
"""
|
242 |
+
etext = """In Turing-15.0🤖🧠 """
|
243 |
+
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
|
244 |
|
245 |
+
|
246 |
|
247 |
logger.info("start block")
|
248 |
|
249 |
with gr.Blocks(
|
250 |
+
title="Turing-15.0🤖",
|
251 |
theme=gr.themes.Soft(text_size="sm", spacing_size="sm"),
|
252 |
css=css,
|
253 |
) as block:
|
254 |
# buff_var = gr.State("")
|
255 |
+
with gr.Accordion("Turing-15.0🤖🧠", open=False, style={"text-align": "center", "font-weight": "bold"}):
|
256 |
|
257 |
gr.Markdown(
|
258 |
f"""<div style="text-align: center;">
|
259 |
+
<h5>Gradio </h5><br>
|
260 |
+
Existem poucos exemplos como prompts para testar o modelo. Provavelmente, você deveria tentar por conta própria prompts relacionados para testar o robô.
|
261 |
</div>""",
|
262 |
elem_classes="xsmall",
|
263 |
)
|
|
|
271 |
with gr.Column(scale=5):
|
272 |
msg = gr.Textbox(
|
273 |
label="Chat Message Box",
|
274 |
+
placeholder="Claro, estou aqui para ajudar. O que você gostaria de perguntar ou discutir? Por favor, digite sua pergunta ou tópico e eu ficarei feliz em responder.",
|
275 |
show_label=False,
|
276 |
# container=False,
|
277 |
lines=6,
|
|
|
311 |
with gr.Accordion("Disclaimer", open=False):
|
312 |
_ = Path(model_loc).name
|
313 |
gr.Markdown(
|
314 |
+
"Frase de Isenção de Responsabilidade: {} pode produzir saídas factualmente incorretas e não deve ser confiável para gerar informações factualmente precisas. {} foi treinado em vários conjuntos de dados públicos; embora tenham sido feitos esforços significativos para limpar os dados pré-treinados, é possível que este modelo possa gerar saídas inadequadas, tendenciosas ou de outra forma ofensivas.",
|
|
|
|
|
|
|
315 |
elem_classes=["disclaimer"],
|
316 |
)
|
317 |
|