Spaces:
Running
on
L40S
Running
on
L40S
File size: 9,605 Bytes
4f6613a |
1 2 3 4 5 6 7 8 9 10 11 12 13 14 15 16 17 18 19 20 21 22 23 24 25 26 27 28 29 30 31 32 33 34 35 36 37 38 39 40 41 42 43 44 45 46 47 48 49 50 51 52 53 54 55 56 57 58 59 60 61 62 63 64 65 66 67 68 69 70 71 72 73 74 75 76 77 78 79 80 81 82 83 84 85 86 87 88 89 90 91 92 93 94 95 96 97 98 99 100 101 102 103 104 105 106 107 108 109 110 111 112 113 114 115 116 117 118 119 120 121 122 123 124 125 126 127 128 129 130 131 132 133 134 |
{
"5 to 10 seconds of reference audio, useful for specifying speaker.": "5 a 10 segundos de áudio de referência, útil para especificar o orador.",
"A text-to-speech model based on VQ-GAN and Llama developed by [Fish Audio](https://fish.audio).": "Um modelo de texto para fala baseado em VQ-GAN e Llama desenvolvido por [Fish Audio](https://fish.audio).",
"Accumulate Gradient Batches": "Acumular Lotes de Gradiente",
"Add to Processing Area": "Adicionar à Área de Processamento",
"Added path successfully!": "Caminho adicionado com sucesso!",
"Advanced Config": "Configuração Avançada",
"Base LLAMA Model": "Modelo LLAMA Base",
"Batch Inference": "Inferência em Lote",
"Batch Size": "Tamanho do Lote",
"Changing with the Model Path": "Alterando com o Caminho do Modelo",
"Compile Model": "Compilar Modelo",
"Compile the model can significantly reduce the inference time, but will increase cold start time": "Compilar o modelo pode reduzir significativamente o tempo de inferência, mas aumentará a latência inicial",
"Copy": "Copiar",
"Data Preprocessing": "Pré-processamento de Dados",
"Data Preprocessing Path": "Caminho de Pré-processamento de Dados",
"Data Source": "Fonte de Dados",
"Decoder Model Config": "Configuração do Modelo Decodificador",
"Decoder Model Path": "Caminho do Modelo Decodificador",
"Disabled": "Desativado",
"Enable Initial Prompt": "Habilitar Prompt Inicial",
"Enable Reference Audio": "Habilitar Áudio de Referência",
"English": "Inglês",
"Japanese": "Japonês",
"Chinese": "Chinês",
"Portuguese": "Português",
"Spanish": "Espanhol",
"Error Message": "Mensagem de Erro",
"Faster Whisper, Up to 5g GPU memory usage": "Faster Whisper (Usa até 5 GB de vRAM)",
"File Preprocessing": "Pré-processamento de Arquivos",
"Generate": "Gerar",
"Generated Audio": "Áudio Gerado",
"If there is no corresponding text for the audio, apply ASR for assistance, support .txt or .lab format": "Se não houver texto correspondente ao áudio, utilize o ASR para assistência (formatos .txt ou .lab)",
"Infer interface is closed": "A interface de inferência foi fechada",
"Inference Configuration": "Configuração de Inferência",
"Inference Server Configuration": "Configuração do Servidor de Inferência",
"Inference Server Error": "Erro do Servidor de Inferência",
"Inferring interface is launched at {}": "A interface de inferência foi iniciada em {}",
"Initial Learning Rate": "Taxa de Aprendizagem Inicial",
"Initial Prompt": "Prompt Inicial",
"Initial prompt can provide contextual or vocabulary-specific guidance to the model.": "O prompt inicial pode fornecer orientação contextual ou específica de vocabulário para o modelo.",
"Input Audio & Source Path for Transcription": "Entrada de Áudio/Caminho de Origem para Transcrição",
"Input Text": "Texto de Entrada",
"Invalid path: {}": "Caminho inválido: {}",
"It is recommended to use CUDA, if you have low configuration, use CPU": "Para GPUs Nvidia é recomendado usar CUDA. Se não tiver uma GPU Nvidia, use CPU",
"Iterative Prompt Length, 0 means off": "Comprimento do Prompt Iterativo (0 = desativado)",
"LLAMA Configuration": "Configuração do LLAMA",
"LLAMA Model Config": "Configuração do Modelo LLAMA",
"LLAMA Model Path": "Caminho do Modelo LLAMA",
"Labeling Device": "Dispositivo de Rotulagem",
"LoRA Model to be merged": "Modelo LoRA para mesclagem",
"Maximum Length per Sample": "Comprimento Máximo por Amostra",
"Maximum Training Steps": "Etapas Máximas de Treinamento",
"Maximum tokens per batch, 0 means no limit": "Número máximo de tokens por lote, 0 significa sem limite",
"Merge": "Mesclar",
"Merge LoRA": "Mesclar LoRA",
"Merge successfully": "Mesclado com sucesso",
"Model Output Path": "Caminho de Saída do Modelo",
"Model Quantization": "Quantização do Modelo",
"Model Size": "Tamanho do Modelo",
"Move": "Mover",
"Move files successfully": "Arquivos movidos com sucesso",
"No audio generated, please check the input text.": "Nenhum áudio gerado, verifique o texto de entrada.",
"No selected options": "Nenhuma opção selecionada",
"Normalization Result Preview (Currently Only Chinese)": "Pré-visualização do Resultado da Normalização (Atualmente Apenas Chinês)",
"Number of Workers": "Número de Processos",
"Open Inference Server": "Abrir Servidor de Inferência",
"Open Labeler WebUI": "Abrir WebUI de Rotulagem",
"Open Tensorboard": "Abrir Tensorboard",
"Opened labeler in browser": "WebUI de rotulagem aberta no navegador",
"Optional Label Language": "Idioma do Rótulo (Opcional)",
"Optional online ver": "Versão online (opcional)",
"Output Path": "Caminho de Saída",
"Path error, please check the model file exists in the corresponding path": "Erro de caminho, verifique se o arquivo do modelo existe no caminho correspondente",
"Post-quantification Precision": "Precisão Pós-quantização",
"Precision": "Precisão",
"Probability of applying Speaker Condition": "Probabilidade de Aplicar Condição de Orador",
"Put your text here.": "Insira seu texto aqui.",
"Quantify": "Quantizar",
"Quantify successfully": "Quantizado com sucesso",
"Realtime Transform Text": "Transformar Texto em Tempo Real",
"Reference Audio": "Áudio de Referência",
"Reference Text": "Texto de Referência",
"warning": "Aviso",
"Pre-processing begins...": "O pré-processamento começou!",
"Related code and weights are released under CC BY-NC-SA 4.0 License.": "O código relacionado e os pesos são licenciados sob a Licença CC BY-NC-SA 4.0.",
"Remove Selected Data": "Remover Dados Selecionados",
"Removed path successfully!": "Caminho removido com sucesso!",
"Repetition Penalty": "Penalidade de Repetição",
"Save model every n steps": "Salvar modelo a cada n etapas",
"Select LLAMA ckpt": "Selecionar .ckpt do LLAMA",
"Select source file processing method": "Escolha como processar o arquivo de origem",
"Select the model to be trained (Depending on the Tab page you are on)": "Selecione o modelo para o treinamento (dependendo da aba em que você está)",
"Selected: {}": "Selecionado: {}",
"Speaker is identified by the folder name": "O orador é identificado pelo nome da pasta",
"Start Training": "Iniciar Treinamento",
"Streaming Audio": "Áudio em Streaming",
"Streaming Generate": "Geração em Streaming",
"Tensorboard Host": "Host do Tensorboard",
"Tensorboard Log Path": "Caminho de Log do Tensorboard",
"Tensorboard Port": "Porta do Tensorboard",
"Tensorboard interface is closed": "A interface do Tensorboard está fechada",
"Tensorboard interface is launched at {}": "A interface do Tensorboard foi iniciada em {}",
"Text Normalization": "Normalização de Texto",
"Text is too long, please keep it under {} characters.": "O texto é muito longo. Mantenha-o com menos de {} caracteres.",
"The lower the quantitative precision, the more the effectiveness may decrease, but the greater the efficiency will increase": "Quanto menor a precisão quantitativa, mais a eficácia pode diminuir, mas maior será o aumento da eficiência",
"The path of the input folder on the left or the filelist. Whether checked or not, it will be used for subsequent training in this list.": "O caminho da pasta de entrada à esquerda ou a lista de arquivos. Independentemente de estar marcada ou não, ela será utilizada para o treinamento subsequente nesta lista.",
"Training Configuration": "Configuração de Treinamento",
"Training Error": "Erro de Treinamento",
"Training stopped": "Treinamento interrompido!",
"Type the path or select from the dropdown": "Digite o caminho ou selecione no menu suspenso",
"Use LoRA": "Usar LoRA",
"Use LoRA can save GPU memory, but may reduce the quality of the model": "O uso de LoRAs pode economizar memória da GPU, mas também pode reduzir a qualidade",
"Use filelist": "Usar lista de arquivos",
"VQGAN Configuration": "Configuração do VQGAN",
"View the status of the preprocessing folder (use the slider to control the depth of the tree)": "Visualizar o status da pasta de pré-processamento (use o controle deslizante para controlar a profundidade da árvore)",
"We are not responsible for any misuse of the model, please consider your local laws and regulations before using it.": "Não nos responsabilizamos por qualquer uso indevido do modelo. Por favor, considere as leis e regulamentações locais antes de usá-lo.",
"WebUI Host": "Host da WebUI",
"WebUI Port": "Porta da WebUI",
"Whisper Model": "Modelo Whisper",
"You can find the source code [here](https://github.com/fishaudio/fish-speech) and models [here](https://huggingface.co/fishaudio/fish-speech-1).": "Você pode encontrar o código fonte [aqui](https://github.com/fishaudio/fish-speech) e os modelos [aqui](https://huggingface.co/fishaudio/fish-speech-1).",
"auto": "automático",
"bf16-true is recommended for 30+ series GPU, 16-mixed is recommended for 10+ series GPU": "bf16-true é recomendado para GPUs da série 30+, 16-mixed é recomendado para GPUs da série 10+",
"latest": "mais recente",
"new": "novo",
"This audio introduces the basic concepts and applications of artificial intelligence and machine learning.": "Este áudio introduz os conceitos básicos e aplicações de inteligência artificial e aprendizado de máquina.",
"You don't need to train this model!": "Não é necessário treinar este modelo!",
"Yes": "Sim",
"No": "Não",
"version:": "versão:",
"author:": "autor:"
}
|