metadata
language:
- es
thumbnail: null
tags:
- summarization
- mt5
- spanish
license: apache-2.0
datasets:
- larazonpublico
- es
metrics:
- rouge
widget:
- text: >-
La Guardia Civil ha desarticulado un grupo organizado dedicado a copiar en
los ex�menes te�ricos para la obtenci�n del permiso de conducir. Para
ello, empleaban receptores y c�maras de alta tecnolog�a y operaban desde
la misma sede del Centro de ex�menes de la Direcci�n General de Tr�fico
(DGT) en M�stoles. Es lo que han llamado la Operaci�n pinga. El grupo
desarticulado ofrec�a el servicio de transporte y tecnolog�a para copiar y
poder aprobar. Por dicho servicio cobraban 1.000 euros. Los investigadores
sorprendieron in fraganti a una mujer intentando copiar en el examen.
Portaba una chaqueta con dispositivos electr�nicos ocultos, concretamente
un tel�fono m�vil al que estaba conectada una c�mara que hab�a sido
insertada en la parte frontal de la chaqueta para transmitir online el
examen y que orientada al ordenador del Centro de Ex�menes en el que
aparecen las preguntas, permit�a visualizar las im�genes en otro ordenador
alojado en el interior de un veh�culo estacionado en las inmediaciones del
centro. En este veh�culo, se encontraban el resto del grupo desarticulado
con varios ordenadores port�tiles y tablets abiertos y conectados a
p�ginas de test de la DGT para consultar las respuestas. Estos,
comunicaban con la mujer que estaba en el aula haciendo el examen a trav�s
de un diminuto receptor bluetooth que portaba en el interior de su o�do.
Luis de Lama, portavoz de la Guardia Civil de Tr�fico destaca que los
ciudadanos, eran de origen chino, y copiaban en el examen utilizando la
tecnolog�a facilitada por una organizaci�n. Destaca que, adem�s de parte
del fraude que supone copiar en un examen muchos de estos ciudadanos
desconoc�an el idioma, no hablan ni entienden el espa�ol lo que supone un
grave riesgo para la seguridad vial por desconocer las se�ales y letreros
que avisan en carretera de muchas incidencias.
mt5-small-spanish-summarization
Model description
This is a mt5-small model finetuned for generating headlines from the body of the news in Spanish.
Training data
The model was trained with 58425 news extracted from the La Razón (31477) and Público (26948) newspapers. These news belong to the following categories: "España", "Cultura", "Economía", "Igualdad" and "Política".
Training procedure
It was trained with Google Colab's GPU Tesla P100-PCIE-16GB for 2 epochs.
Hyperparameters
{evaluation_strategy = "epoch", learning_rate = 2e-4, per_device_train_batch_size = 6, per_device_eval_batch_size = 6, weight_decay = 0.01, save_total_limi t= 3, num_train_epochs = 2, predict_with_generate = True, fp16 = False}
Eval results
metric | score |
---|---|
rouge1 | 44.03 |
rouge2 | 28.2900 |
rougeL | 40.54 |
rougeLsum | 40.5587 |
BibTeX entry and citation info
@inproceedings{ mt5lrpjosmunpen,
year={2020},
author = {José Manuel Muñiz Peña},
}