nicholasKluge commited on
Commit
cabe7db
1 Parent(s): c66a837

Update app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -120,7 +120,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
120
  top_p = gr.Slider(minimum=0.1, maximum=1.0, value=0.30, step=0.05, interactive=True, label="Top-p", info="Controla a probabilidade cumulativa dos tokens gerados.")
121
  temperature = gr.Slider(minimum=0.1, maximum=2.0, value=0.1, step=0.1, interactive=True, label="Temperatura", info="Controla a aleatoriedade dos tokens gerados.")
122
  repetition_penalty = gr.Slider(minimum=1, maximum=2, value=1.1, step=0.1, interactive=True, label="Penalidade de Repetição", info="Valores mais altos auxiliam o modelo a evitar repetições na geração de texto.")
123
- max_length = gr.Slider(minimum=10, maximum=500, value=200, step=10, interactive=True, label="Comprimento Máximo", info="Controla o comprimento máximo do texto gerado.")
124
  smaple_from = gr.Slider(minimum=2, maximum=10, value=2, step=1, interactive=True, label="Amostragem por Rejeição", info="Controla o número de gerações a partir das quais o modelo de recompensa irá selecionar.")
125
 
126
 
@@ -150,7 +150,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
150
  """
151
  return gr.update(value=user_message, interactive=True), chat_history + [[user_message, None]]
152
 
153
- def generate_response(user_msg, top_p, temperature, top_k, max_length, smaple_from, repetition_penalty, safety, chat_history):
154
  """
155
  Chatbot's response generator.
156
  """
@@ -167,7 +167,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
167
  renormalize_logits=True,
168
  length_penalty=0.3,
169
  top_k=top_k,
170
- max_length=max_length,
171
  top_p=top_p,
172
  temperature=temperature,
173
  num_return_sequences=smaple_from)
@@ -248,7 +248,7 @@ with gr.Blocks(theme='freddyaboulton/dracula_revamped') as demo:
248
 
249
 
250
  response = msg.submit(user, [msg, chatbot], [msg, chatbot], queue=False).then(
251
- generate_response, [msg, top_p, temperature, top_k, max_length, smaple_from, repetition_penalty, safety, chatbot], chatbot
252
  )
253
  response.then(lambda: gr.update(interactive=True), None, [msg], queue=False)
254
  msg.submit(lambda x: gr.update(value=''), None,[msg])
 
120
  top_p = gr.Slider(minimum=0.1, maximum=1.0, value=0.30, step=0.05, interactive=True, label="Top-p", info="Controla a probabilidade cumulativa dos tokens gerados.")
121
  temperature = gr.Slider(minimum=0.1, maximum=2.0, value=0.1, step=0.1, interactive=True, label="Temperatura", info="Controla a aleatoriedade dos tokens gerados.")
122
  repetition_penalty = gr.Slider(minimum=1, maximum=2, value=1.1, step=0.1, interactive=True, label="Penalidade de Repetição", info="Valores mais altos auxiliam o modelo a evitar repetições na geração de texto.")
123
+ max_new_tokens = gr.Slider(minimum=10, maximum=500, value=200, step=10, interactive=True, label="Comprimento Máximo", info="Controla o número máximo de tokens a serem produzidos (ignorando o prompt).")
124
  smaple_from = gr.Slider(minimum=2, maximum=10, value=2, step=1, interactive=True, label="Amostragem por Rejeição", info="Controla o número de gerações a partir das quais o modelo de recompensa irá selecionar.")
125
 
126
 
 
150
  """
151
  return gr.update(value=user_message, interactive=True), chat_history + [[user_message, None]]
152
 
153
+ def generate_response(user_msg, top_p, temperature, top_k, max_new_tokens, smaple_from, repetition_penalty, safety, chat_history):
154
  """
155
  Chatbot's response generator.
156
  """
 
167
  renormalize_logits=True,
168
  length_penalty=0.3,
169
  top_k=top_k,
170
+ max_new_tokens=max_new_tokens,
171
  top_p=top_p,
172
  temperature=temperature,
173
  num_return_sequences=smaple_from)
 
248
 
249
 
250
  response = msg.submit(user, [msg, chatbot], [msg, chatbot], queue=False).then(
251
+ generate_response, [msg, top_p, temperature, top_k, max_new_tokens, smaple_from, repetition_penalty, safety, chatbot], chatbot
252
  )
253
  response.then(lambda: gr.update(interactive=True), None, [msg], queue=False)
254
  msg.submit(lambda x: gr.update(value=''), None,[msg])