RafaelJaime commited on
Commit
89178f6
1 Parent(s): 66f056c

Upload app.py

Browse files
Files changed (1) hide show
  1. app.py +4 -4
app.py CHANGED
@@ -5,7 +5,7 @@ from transformers import pipeline
5
  import time
6
  import torch
7
 
8
- generate_story_pipe = pipeline("text2text-generation", model="google/flan-t5-base")
9
 
10
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
11
  def measure_performance(func):
@@ -28,7 +28,7 @@ examples = [
28
  @measure_performance
29
  def generate_story(theme):
30
  prompt = f"Crea una historia {theme} en español"
31
- story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, repetition_penalty=3.0)
32
  generated_story = story[0]["generated_text"]
33
  return generated_story
34
 
@@ -51,7 +51,7 @@ def subtitle():
51
  # Documentacion
52
  def end_text():
53
  gr.Markdown("<h2>Documentación</h2>")
54
- gr.Markdown("""El problema que se busca solucionar es la dificultad que algunos padres enfrentan para contar historias a sus hijos a la hora de dormir, ya sea por falta de tiempo, cansancio o falta de inspiración. Este proyecto propone una solución que facilite este momento y lo haga más cómodo, ofreciendo una herramienta que narre historias personalizadas, permitiendo que los padres y sus hijos disfruten juntos de esta experiencia de una manera práctica y accesible.Este problema es muy flexible para este trabajo puesto que hay multitud de tipos de modelos que pueden añadirse, sin pensar mucho pues añadir generador de texto como base de todo a partir de un texto que ponga el usuario y de ahí partir a text-speech, image generator del texto generado, video generator, resúmenes de la historia, chat sobre la historia...""")
55
  gr.Markdown("""<h3>Input y Output</h3>
56
  <p><strong>Input:</strong> El programa espera un texto que describa la historia que quiere ser contada.</p>
57
  <p><strong>Output:</strong> Será un audio que cuente la historia relacionada con el input.</p>
@@ -98,7 +98,7 @@ def end_text():
98
  - No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
99
  - Genera audios cortos. No genera mas de 14 segundos, en hugging face al menos.
100
  **Tiempo promedio**
101
- Bastante mas lento que el otro, puede llegar a mas de 300 segundos.
102
  """)
103
  gr.Markdown("""<h3>Links consultados</h3>""")
104
  gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")
 
5
  import time
6
  import torch
7
 
8
+ generate_story_pipe = pipeline("text2text-generation", model="openai-community/gpt2")
9
 
10
  # Para medir el rendimiento de los métodos, voy a crear este decorador, que simplemente imprime en nuestra terminal el tiempo de ejecucion de los metodos que tengan los modelos y los usen, de esta manera podremos estudiar el tiempo que este cada modelo activo
11
  def measure_performance(func):
 
28
  @measure_performance
29
  def generate_story(theme):
30
  prompt = f"Crea una historia {theme} en español"
31
+ story = generate_story_pipe(prompt, max_length=400, num_return_sequences=1, temperature=0.7, do_sample=True, repetition_penalty=3.0)
32
  generated_story = story[0]["generated_text"]
33
  return generated_story
34
 
 
51
  # Documentacion
52
  def end_text():
53
  gr.Markdown("<h2>Documentación</h2>")
54
+ gr.Markdown("""El problema que se busca solucionar es la dificultad que algunos padres enfrentan para contar historias a sus hijos a la hora de dormir, ya sea por falta de tiempo, cansancio o falta de inspiración. Este proyecto propone una solución que facilite este momento y lo haga más cómodo, ofreciendo una herramienta que narre historias personalizadas, permitiendo que los padres y sus hijos disfruten juntos de esta experiencia de una manera práctica y accesible.Este problema es muy flexible para este trabajo puesto que hay multitud de tipos de modelos que pueden añadirse, sin pensar mucho pues añadir generador de texto como base de todo a partir de un texto que ponga el usuario y de ahí partir a text-speech, image generator del texto generado, video generator, resúmenes de la historia, chat sobre la historia... Un monton de distintos tipos de modelos que se pueden añadir con el simple input de una cadena de texto que describa una historia""")
55
  gr.Markdown("""<h3>Input y Output</h3>
56
  <p><strong>Input:</strong> El programa espera un texto que describa la historia que quiere ser contada.</p>
57
  <p><strong>Output:</strong> Será un audio que cuente la historia relacionada con el input.</p>
 
98
  - No tiene todos los idiomas, debido a que requiere grandes volúmenes de datos de entrenamiento y puede tener dificultades con dialectos menos comunes o con datos limitados.
99
  - Genera audios cortos. No genera mas de 14 segundos, en hugging face al menos.
100
  **Tiempo promedio**
101
+ Bastante mas lento que el otro, puede llegar a mas de 300 segundos cada 5 segundos de audio.
102
  """)
103
  gr.Markdown("""<h3>Links consultados</h3>""")
104
  gr.Markdown("[Git, bark](https://github.com/suno-ai/bark/)")