|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 4.0336, |
|
"global_step": 5000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 1.0999999999999999e-07, |
|
"loss": 1.1559, |
|
"step": 25 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 2.3499999999999997e-07, |
|
"loss": 1.0819, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.01, |
|
"learning_rate": 3.6e-07, |
|
"loss": 1.0972, |
|
"step": 75 |
|
}, |
|
{ |
|
"epoch": 0.02, |
|
"learning_rate": 4.85e-07, |
|
"loss": 0.6589, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 6.1e-07, |
|
"loss": 0.385, |
|
"step": 125 |
|
}, |
|
{ |
|
"epoch": 0.03, |
|
"learning_rate": 7.35e-07, |
|
"loss": 0.3134, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 8.599999999999999e-07, |
|
"loss": 0.2344, |
|
"step": 175 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 9.849999999999999e-07, |
|
"loss": 0.1881, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 0.04, |
|
"learning_rate": 9.954166666666665e-07, |
|
"loss": 0.1845, |
|
"step": 225 |
|
}, |
|
{ |
|
"epoch": 0.05, |
|
"learning_rate": 9.902083333333334e-07, |
|
"loss": 0.1956, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 9.849999999999999e-07, |
|
"loss": 0.2658, |
|
"step": 275 |
|
}, |
|
{ |
|
"epoch": 0.06, |
|
"learning_rate": 9.797916666666666e-07, |
|
"loss": 0.2565, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 9.745833333333332e-07, |
|
"loss": 0.1868, |
|
"step": 325 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 9.69375e-07, |
|
"loss": 0.1813, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 0.07, |
|
"learning_rate": 9.641666666666666e-07, |
|
"loss": 0.171, |
|
"step": 375 |
|
}, |
|
{ |
|
"epoch": 0.08, |
|
"learning_rate": 9.589583333333333e-07, |
|
"loss": 0.1544, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 9.5375e-07, |
|
"loss": 0.1405, |
|
"step": 425 |
|
}, |
|
{ |
|
"epoch": 0.09, |
|
"learning_rate": 9.485416666666665e-07, |
|
"loss": 0.1319, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 9.433333333333333e-07, |
|
"loss": 0.1238, |
|
"step": 475 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 9.381249999999999e-07, |
|
"loss": 0.1684, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 0.1, |
|
"learning_rate": 9.329166666666666e-07, |
|
"loss": 0.1457, |
|
"step": 525 |
|
}, |
|
{ |
|
"epoch": 0.11, |
|
"learning_rate": 9.277083333333333e-07, |
|
"loss": 0.1541, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 9.225e-07, |
|
"loss": 0.1446, |
|
"step": 575 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 9.172916666666665e-07, |
|
"loss": 0.1505, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 0.12, |
|
"learning_rate": 9.120833333333333e-07, |
|
"loss": 0.1302, |
|
"step": 625 |
|
}, |
|
{ |
|
"epoch": 0.13, |
|
"learning_rate": 9.068749999999999e-07, |
|
"loss": 0.1252, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 9.016666666666666e-07, |
|
"loss": 0.1189, |
|
"step": 675 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 8.964583333333334e-07, |
|
"loss": 0.0963, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 0.14, |
|
"learning_rate": 8.912499999999999e-07, |
|
"loss": 0.1079, |
|
"step": 725 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 8.860416666666666e-07, |
|
"loss": 0.1146, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 0.15, |
|
"learning_rate": 8.808333333333333e-07, |
|
"loss": 0.1309, |
|
"step": 775 |
|
}, |
|
{ |
|
"epoch": 0.16, |
|
"learning_rate": 8.75625e-07, |
|
"loss": 0.1416, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 8.704166666666666e-07, |
|
"loss": 0.1375, |
|
"step": 825 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 8.652083333333333e-07, |
|
"loss": 0.1466, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 0.17, |
|
"learning_rate": 8.599999999999999e-07, |
|
"loss": 0.1319, |
|
"step": 875 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 8.547916666666666e-07, |
|
"loss": 0.1746, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 0.18, |
|
"learning_rate": 8.495833333333333e-07, |
|
"loss": 0.1136, |
|
"step": 925 |
|
}, |
|
{ |
|
"epoch": 0.19, |
|
"learning_rate": 8.44375e-07, |
|
"loss": 0.1489, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 8.391666666666665e-07, |
|
"loss": 0.1595, |
|
"step": 975 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 8.339583333333333e-07, |
|
"loss": 0.111, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"eval_loss": 0.17858517169952393, |
|
"eval_runtime": 5741.3045, |
|
"eval_samples_per_second": 1.767, |
|
"eval_steps_per_second": 0.11, |
|
"eval_wer": 11.006301245065291, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 0.2, |
|
"learning_rate": 8.287499999999999e-07, |
|
"loss": 0.1149, |
|
"step": 1025 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 8.235416666666666e-07, |
|
"loss": 0.1357, |
|
"step": 1050 |
|
}, |
|
{ |
|
"epoch": 0.21, |
|
"learning_rate": 8.183333333333334e-07, |
|
"loss": 0.1384, |
|
"step": 1075 |
|
}, |
|
{ |
|
"epoch": 0.22, |
|
"learning_rate": 8.131249999999999e-07, |
|
"loss": 0.1582, |
|
"step": 1100 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 8.079166666666666e-07, |
|
"loss": 0.127, |
|
"step": 1125 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 8.027083333333333e-07, |
|
"loss": 0.1662, |
|
"step": 1150 |
|
}, |
|
{ |
|
"epoch": 0.23, |
|
"learning_rate": 7.975e-07, |
|
"loss": 0.2069, |
|
"step": 1175 |
|
}, |
|
{ |
|
"epoch": 0.24, |
|
"learning_rate": 7.922916666666666e-07, |
|
"loss": 0.1952, |
|
"step": 1200 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"learning_rate": 7.870833333333334e-07, |
|
"loss": 0.1762, |
|
"step": 1225 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 7.818749999999999e-07, |
|
"loss": 0.1636, |
|
"step": 1250 |
|
}, |
|
{ |
|
"epoch": 1.01, |
|
"learning_rate": 7.766666666666666e-07, |
|
"loss": 0.1493, |
|
"step": 1275 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 7.714583333333333e-07, |
|
"loss": 0.13, |
|
"step": 1300 |
|
}, |
|
{ |
|
"epoch": 1.02, |
|
"learning_rate": 7.6625e-07, |
|
"loss": 0.1344, |
|
"step": 1325 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 7.610416666666665e-07, |
|
"loss": 0.1469, |
|
"step": 1350 |
|
}, |
|
{ |
|
"epoch": 1.03, |
|
"learning_rate": 7.558333333333333e-07, |
|
"loss": 0.1152, |
|
"step": 1375 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 7.506249999999999e-07, |
|
"loss": 0.1054, |
|
"step": 1400 |
|
}, |
|
{ |
|
"epoch": 1.04, |
|
"learning_rate": 7.454166666666666e-07, |
|
"loss": 0.1041, |
|
"step": 1425 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 7.402083333333334e-07, |
|
"loss": 0.1171, |
|
"step": 1450 |
|
}, |
|
{ |
|
"epoch": 1.05, |
|
"learning_rate": 7.35e-07, |
|
"loss": 0.1058, |
|
"step": 1475 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 7.297916666666666e-07, |
|
"loss": 0.1024, |
|
"step": 1500 |
|
}, |
|
{ |
|
"epoch": 1.06, |
|
"learning_rate": 7.245833333333333e-07, |
|
"loss": 0.0953, |
|
"step": 1525 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 7.19375e-07, |
|
"loss": 0.0971, |
|
"step": 1550 |
|
}, |
|
{ |
|
"epoch": 1.07, |
|
"learning_rate": 7.141666666666666e-07, |
|
"loss": 0.1032, |
|
"step": 1575 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 7.089583333333334e-07, |
|
"loss": 0.1175, |
|
"step": 1600 |
|
}, |
|
{ |
|
"epoch": 1.08, |
|
"learning_rate": 7.037499999999999e-07, |
|
"loss": 0.1012, |
|
"step": 1625 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 6.985416666666666e-07, |
|
"loss": 0.0899, |
|
"step": 1650 |
|
}, |
|
{ |
|
"epoch": 1.09, |
|
"learning_rate": 6.933333333333333e-07, |
|
"loss": 0.0885, |
|
"step": 1675 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 6.88125e-07, |
|
"loss": 0.0887, |
|
"step": 1700 |
|
}, |
|
{ |
|
"epoch": 1.1, |
|
"learning_rate": 6.829166666666666e-07, |
|
"loss": 0.1024, |
|
"step": 1725 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 6.777083333333333e-07, |
|
"loss": 0.1049, |
|
"step": 1750 |
|
}, |
|
{ |
|
"epoch": 1.11, |
|
"learning_rate": 6.724999999999999e-07, |
|
"loss": 0.1015, |
|
"step": 1775 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 6.672916666666666e-07, |
|
"loss": 0.1047, |
|
"step": 1800 |
|
}, |
|
{ |
|
"epoch": 1.12, |
|
"learning_rate": 6.620833333333333e-07, |
|
"loss": 0.1006, |
|
"step": 1825 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 6.56875e-07, |
|
"loss": 0.1186, |
|
"step": 1850 |
|
}, |
|
{ |
|
"epoch": 1.13, |
|
"learning_rate": 6.516666666666666e-07, |
|
"loss": 0.1512, |
|
"step": 1875 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 6.464583333333333e-07, |
|
"loss": 0.1514, |
|
"step": 1900 |
|
}, |
|
{ |
|
"epoch": 1.14, |
|
"learning_rate": 6.4125e-07, |
|
"loss": 0.1276, |
|
"step": 1925 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 6.360416666666666e-07, |
|
"loss": 0.117, |
|
"step": 1950 |
|
}, |
|
{ |
|
"epoch": 1.15, |
|
"learning_rate": 6.308333333333334e-07, |
|
"loss": 0.0986, |
|
"step": 1975 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 6.256249999999999e-07, |
|
"loss": 0.0961, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"eval_loss": 0.17186188697814941, |
|
"eval_runtime": 5724.307, |
|
"eval_samples_per_second": 1.772, |
|
"eval_steps_per_second": 0.111, |
|
"eval_wer": 10.590646826601882, |
|
"step": 2000 |
|
}, |
|
{ |
|
"epoch": 1.16, |
|
"learning_rate": 6.204166666666666e-07, |
|
"loss": 0.0878, |
|
"step": 2025 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 6.152083333333333e-07, |
|
"loss": 0.0965, |
|
"step": 2050 |
|
}, |
|
{ |
|
"epoch": 1.17, |
|
"learning_rate": 6.1e-07, |
|
"loss": 0.1008, |
|
"step": 2075 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 6.047916666666666e-07, |
|
"loss": 0.1047, |
|
"step": 2100 |
|
}, |
|
{ |
|
"epoch": 1.18, |
|
"learning_rate": 5.995833333333333e-07, |
|
"loss": 0.0967, |
|
"step": 2125 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 5.943749999999999e-07, |
|
"loss": 0.0803, |
|
"step": 2150 |
|
}, |
|
{ |
|
"epoch": 1.19, |
|
"learning_rate": 5.891666666666666e-07, |
|
"loss": 0.0678, |
|
"step": 2175 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 5.839583333333333e-07, |
|
"loss": 0.0952, |
|
"step": 2200 |
|
}, |
|
{ |
|
"epoch": 1.2, |
|
"learning_rate": 5.7875e-07, |
|
"loss": 0.1302, |
|
"step": 2225 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 5.735416666666665e-07, |
|
"loss": 0.1166, |
|
"step": 2250 |
|
}, |
|
{ |
|
"epoch": 1.21, |
|
"learning_rate": 5.683333333333333e-07, |
|
"loss": 0.0873, |
|
"step": 2275 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 5.63125e-07, |
|
"loss": 0.0937, |
|
"step": 2300 |
|
}, |
|
{ |
|
"epoch": 1.22, |
|
"learning_rate": 5.579166666666666e-07, |
|
"loss": 0.1203, |
|
"step": 2325 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 5.527083333333334e-07, |
|
"loss": 0.1051, |
|
"step": 2350 |
|
}, |
|
{ |
|
"epoch": 1.23, |
|
"learning_rate": 5.474999999999999e-07, |
|
"loss": 0.0941, |
|
"step": 2375 |
|
}, |
|
{ |
|
"epoch": 1.24, |
|
"learning_rate": 5.422916666666666e-07, |
|
"loss": 0.0877, |
|
"step": 2400 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"learning_rate": 5.370833333333333e-07, |
|
"loss": 0.0976, |
|
"step": 2425 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 5.31875e-07, |
|
"loss": 0.0862, |
|
"step": 2450 |
|
}, |
|
{ |
|
"epoch": 2.01, |
|
"learning_rate": 5.266666666666666e-07, |
|
"loss": 0.0883, |
|
"step": 2475 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 5.214583333333334e-07, |
|
"loss": 0.0771, |
|
"step": 2500 |
|
}, |
|
{ |
|
"epoch": 2.02, |
|
"learning_rate": 5.162499999999999e-07, |
|
"loss": 0.0763, |
|
"step": 2525 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 5.110416666666666e-07, |
|
"loss": 0.103, |
|
"step": 2550 |
|
}, |
|
{ |
|
"epoch": 2.03, |
|
"learning_rate": 5.058333333333333e-07, |
|
"loss": 0.1053, |
|
"step": 2575 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 5.00625e-07, |
|
"loss": 0.087, |
|
"step": 2600 |
|
}, |
|
{ |
|
"epoch": 2.04, |
|
"learning_rate": 4.954166666666667e-07, |
|
"loss": 0.0732, |
|
"step": 2625 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 4.902083333333333e-07, |
|
"loss": 0.0952, |
|
"step": 2650 |
|
}, |
|
{ |
|
"epoch": 2.05, |
|
"learning_rate": 4.85e-07, |
|
"loss": 0.0916, |
|
"step": 2675 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 4.797916666666667e-07, |
|
"loss": 0.0765, |
|
"step": 2700 |
|
}, |
|
{ |
|
"epoch": 2.06, |
|
"learning_rate": 4.745833333333333e-07, |
|
"loss": 0.0691, |
|
"step": 2725 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 4.6937499999999995e-07, |
|
"loss": 0.0687, |
|
"step": 2750 |
|
}, |
|
{ |
|
"epoch": 2.07, |
|
"learning_rate": 4.6416666666666663e-07, |
|
"loss": 0.0775, |
|
"step": 2775 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 4.589583333333333e-07, |
|
"loss": 0.076, |
|
"step": 2800 |
|
}, |
|
{ |
|
"epoch": 2.08, |
|
"learning_rate": 4.5374999999999994e-07, |
|
"loss": 0.0789, |
|
"step": 2825 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 4.485416666666667e-07, |
|
"loss": 0.0704, |
|
"step": 2850 |
|
}, |
|
{ |
|
"epoch": 2.09, |
|
"learning_rate": 4.4333333333333336e-07, |
|
"loss": 0.0858, |
|
"step": 2875 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 4.38125e-07, |
|
"loss": 0.0817, |
|
"step": 2900 |
|
}, |
|
{ |
|
"epoch": 2.1, |
|
"learning_rate": 4.3291666666666667e-07, |
|
"loss": 0.0758, |
|
"step": 2925 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 4.2770833333333335e-07, |
|
"loss": 0.075, |
|
"step": 2950 |
|
}, |
|
{ |
|
"epoch": 2.11, |
|
"learning_rate": 4.225e-07, |
|
"loss": 0.0634, |
|
"step": 2975 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 4.1729166666666666e-07, |
|
"loss": 0.0732, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"eval_loss": 0.17432214319705963, |
|
"eval_runtime": 5737.7212, |
|
"eval_samples_per_second": 1.768, |
|
"eval_steps_per_second": 0.11, |
|
"eval_wer": 10.326829638627391, |
|
"step": 3000 |
|
}, |
|
{ |
|
"epoch": 2.12, |
|
"learning_rate": 4.1208333333333334e-07, |
|
"loss": 0.1099, |
|
"step": 3025 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 4.0687499999999997e-07, |
|
"loss": 0.1393, |
|
"step": 3050 |
|
}, |
|
{ |
|
"epoch": 2.13, |
|
"learning_rate": 4.0166666666666665e-07, |
|
"loss": 0.1217, |
|
"step": 3075 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"learning_rate": 3.9645833333333333e-07, |
|
"loss": 0.1038, |
|
"step": 3100 |
|
}, |
|
{ |
|
"epoch": 2.14, |
|
"learning_rate": 3.9124999999999996e-07, |
|
"loss": 0.0842, |
|
"step": 3125 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.8604166666666664e-07, |
|
"loss": 0.1279, |
|
"step": 3150 |
|
}, |
|
{ |
|
"epoch": 2.15, |
|
"learning_rate": 3.808333333333333e-07, |
|
"loss": 0.1069, |
|
"step": 3175 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.7562499999999995e-07, |
|
"loss": 0.1074, |
|
"step": 3200 |
|
}, |
|
{ |
|
"epoch": 2.16, |
|
"learning_rate": 3.7041666666666663e-07, |
|
"loss": 0.0849, |
|
"step": 3225 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.6520833333333337e-07, |
|
"loss": 0.0859, |
|
"step": 3250 |
|
}, |
|
{ |
|
"epoch": 2.17, |
|
"learning_rate": 3.6e-07, |
|
"loss": 0.0855, |
|
"step": 3275 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 3.547916666666667e-07, |
|
"loss": 0.0732, |
|
"step": 3300 |
|
}, |
|
{ |
|
"epoch": 2.18, |
|
"learning_rate": 3.4958333333333336e-07, |
|
"loss": 0.0761, |
|
"step": 3325 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.44375e-07, |
|
"loss": 0.0837, |
|
"step": 3350 |
|
}, |
|
{ |
|
"epoch": 2.19, |
|
"learning_rate": 3.3916666666666667e-07, |
|
"loss": 0.0935, |
|
"step": 3375 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.3395833333333335e-07, |
|
"loss": 0.0782, |
|
"step": 3400 |
|
}, |
|
{ |
|
"epoch": 2.2, |
|
"learning_rate": 3.2875e-07, |
|
"loss": 0.1018, |
|
"step": 3425 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.2354166666666666e-07, |
|
"loss": 0.0751, |
|
"step": 3450 |
|
}, |
|
{ |
|
"epoch": 2.21, |
|
"learning_rate": 3.1833333333333334e-07, |
|
"loss": 0.0731, |
|
"step": 3475 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 3.1312499999999997e-07, |
|
"loss": 0.0757, |
|
"step": 3500 |
|
}, |
|
{ |
|
"epoch": 2.22, |
|
"learning_rate": 3.0791666666666665e-07, |
|
"loss": 0.0947, |
|
"step": 3525 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 3.0270833333333333e-07, |
|
"loss": 0.1054, |
|
"step": 3550 |
|
}, |
|
{ |
|
"epoch": 2.23, |
|
"learning_rate": 2.9749999999999996e-07, |
|
"loss": 0.0858, |
|
"step": 3575 |
|
}, |
|
{ |
|
"epoch": 2.24, |
|
"learning_rate": 2.9229166666666664e-07, |
|
"loss": 0.0989, |
|
"step": 3600 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"learning_rate": 2.870833333333333e-07, |
|
"loss": 0.0981, |
|
"step": 3625 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"learning_rate": 2.8187499999999995e-07, |
|
"loss": 0.0669, |
|
"step": 3650 |
|
}, |
|
{ |
|
"epoch": 3.01, |
|
"learning_rate": 2.766666666666667e-07, |
|
"loss": 0.0686, |
|
"step": 3675 |
|
}, |
|
{ |
|
"epoch": 3.02, |
|
"learning_rate": 2.7145833333333336e-07, |
|
"loss": 0.0884, |
|
"step": 3700 |
|
}, |
|
{ |
|
"epoch": 3.02, |
|
"learning_rate": 2.6625e-07, |
|
"loss": 0.0892, |
|
"step": 3725 |
|
}, |
|
{ |
|
"epoch": 3.03, |
|
"learning_rate": 2.6104166666666667e-07, |
|
"loss": 0.0795, |
|
"step": 3750 |
|
}, |
|
{ |
|
"epoch": 3.03, |
|
"learning_rate": 2.5583333333333335e-07, |
|
"loss": 0.0735, |
|
"step": 3775 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"learning_rate": 2.50625e-07, |
|
"loss": 0.0793, |
|
"step": 3800 |
|
}, |
|
{ |
|
"epoch": 3.04, |
|
"learning_rate": 2.4541666666666666e-07, |
|
"loss": 0.0819, |
|
"step": 3825 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"learning_rate": 2.402083333333333e-07, |
|
"loss": 0.0796, |
|
"step": 3850 |
|
}, |
|
{ |
|
"epoch": 3.05, |
|
"learning_rate": 2.3499999999999997e-07, |
|
"loss": 0.069, |
|
"step": 3875 |
|
}, |
|
{ |
|
"epoch": 3.06, |
|
"learning_rate": 2.2979166666666665e-07, |
|
"loss": 0.0712, |
|
"step": 3900 |
|
}, |
|
{ |
|
"epoch": 3.06, |
|
"learning_rate": 2.245833333333333e-07, |
|
"loss": 0.0596, |
|
"step": 3925 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 2.1937499999999996e-07, |
|
"loss": 0.0682, |
|
"step": 3950 |
|
}, |
|
{ |
|
"epoch": 3.07, |
|
"learning_rate": 2.1416666666666667e-07, |
|
"loss": 0.069, |
|
"step": 3975 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"learning_rate": 2.0895833333333333e-07, |
|
"loss": 0.0742, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"eval_loss": 0.17151764035224915, |
|
"eval_runtime": 5776.2747, |
|
"eval_samples_per_second": 1.756, |
|
"eval_steps_per_second": 0.11, |
|
"eval_wer": 10.226237473428485, |
|
"step": 4000 |
|
}, |
|
{ |
|
"epoch": 3.08, |
|
"learning_rate": 2.0374999999999998e-07, |
|
"loss": 0.0787, |
|
"step": 4025 |
|
}, |
|
{ |
|
"epoch": 3.09, |
|
"learning_rate": 1.9854166666666666e-07, |
|
"loss": 0.0712, |
|
"step": 4050 |
|
}, |
|
{ |
|
"epoch": 3.09, |
|
"learning_rate": 1.9333333333333332e-07, |
|
"loss": 0.0688, |
|
"step": 4075 |
|
}, |
|
{ |
|
"epoch": 3.1, |
|
"learning_rate": 1.8812499999999997e-07, |
|
"loss": 0.055, |
|
"step": 4100 |
|
}, |
|
{ |
|
"epoch": 3.1, |
|
"learning_rate": 1.8291666666666665e-07, |
|
"loss": 0.0509, |
|
"step": 4125 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 1.777083333333333e-07, |
|
"loss": 0.0513, |
|
"step": 4150 |
|
}, |
|
{ |
|
"epoch": 3.11, |
|
"learning_rate": 1.725e-07, |
|
"loss": 0.0577, |
|
"step": 4175 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"learning_rate": 1.675e-07, |
|
"loss": 0.0767, |
|
"step": 4200 |
|
}, |
|
{ |
|
"epoch": 3.12, |
|
"learning_rate": 1.6229166666666667e-07, |
|
"loss": 0.0767, |
|
"step": 4225 |
|
}, |
|
{ |
|
"epoch": 3.13, |
|
"learning_rate": 1.5708333333333332e-07, |
|
"loss": 0.0864, |
|
"step": 4250 |
|
}, |
|
{ |
|
"epoch": 3.13, |
|
"learning_rate": 1.51875e-07, |
|
"loss": 0.0706, |
|
"step": 4275 |
|
}, |
|
{ |
|
"epoch": 3.14, |
|
"learning_rate": 1.4666666666666666e-07, |
|
"loss": 0.0754, |
|
"step": 4300 |
|
}, |
|
{ |
|
"epoch": 3.14, |
|
"learning_rate": 1.414583333333333e-07, |
|
"loss": 0.0863, |
|
"step": 4325 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"learning_rate": 1.3625e-07, |
|
"loss": 0.095, |
|
"step": 4350 |
|
}, |
|
{ |
|
"epoch": 3.15, |
|
"learning_rate": 1.3104166666666667e-07, |
|
"loss": 0.0817, |
|
"step": 4375 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"learning_rate": 1.2583333333333333e-07, |
|
"loss": 0.1008, |
|
"step": 4400 |
|
}, |
|
{ |
|
"epoch": 3.16, |
|
"learning_rate": 1.2062499999999998e-07, |
|
"loss": 0.1203, |
|
"step": 4425 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 1.1541666666666666e-07, |
|
"loss": 0.1138, |
|
"step": 4450 |
|
}, |
|
{ |
|
"epoch": 3.17, |
|
"learning_rate": 1.1020833333333333e-07, |
|
"loss": 0.0935, |
|
"step": 4475 |
|
}, |
|
{ |
|
"epoch": 3.18, |
|
"learning_rate": 1.0499999999999999e-07, |
|
"loss": 0.0601, |
|
"step": 4500 |
|
}, |
|
{ |
|
"epoch": 3.18, |
|
"learning_rate": 9.979166666666667e-08, |
|
"loss": 0.0678, |
|
"step": 4525 |
|
}, |
|
{ |
|
"epoch": 3.19, |
|
"learning_rate": 9.458333333333334e-08, |
|
"loss": 0.0643, |
|
"step": 4550 |
|
}, |
|
{ |
|
"epoch": 3.19, |
|
"learning_rate": 8.937499999999999e-08, |
|
"loss": 0.0856, |
|
"step": 4575 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 8.416666666666666e-08, |
|
"loss": 0.067, |
|
"step": 4600 |
|
}, |
|
{ |
|
"epoch": 3.2, |
|
"learning_rate": 7.895833333333334e-08, |
|
"loss": 0.0529, |
|
"step": 4625 |
|
}, |
|
{ |
|
"epoch": 3.21, |
|
"learning_rate": 7.375e-08, |
|
"loss": 0.0706, |
|
"step": 4650 |
|
}, |
|
{ |
|
"epoch": 3.21, |
|
"learning_rate": 6.854166666666666e-08, |
|
"loss": 0.0655, |
|
"step": 4675 |
|
}, |
|
{ |
|
"epoch": 3.22, |
|
"learning_rate": 6.333333333333333e-08, |
|
"loss": 0.0677, |
|
"step": 4700 |
|
}, |
|
{ |
|
"epoch": 3.22, |
|
"learning_rate": 5.8125e-08, |
|
"loss": 0.0726, |
|
"step": 4725 |
|
}, |
|
{ |
|
"epoch": 3.23, |
|
"learning_rate": 5.291666666666667e-08, |
|
"loss": 0.0623, |
|
"step": 4750 |
|
}, |
|
{ |
|
"epoch": 3.23, |
|
"learning_rate": 4.770833333333333e-08, |
|
"loss": 0.0785, |
|
"step": 4775 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 4.2500000000000003e-08, |
|
"loss": 0.1087, |
|
"step": 4800 |
|
}, |
|
{ |
|
"epoch": 3.24, |
|
"learning_rate": 3.7291666666666665e-08, |
|
"loss": 0.0933, |
|
"step": 4825 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"learning_rate": 3.208333333333333e-08, |
|
"loss": 0.0561, |
|
"step": 4850 |
|
}, |
|
{ |
|
"epoch": 4.01, |
|
"learning_rate": 2.6874999999999997e-08, |
|
"loss": 0.0479, |
|
"step": 4875 |
|
}, |
|
{ |
|
"epoch": 4.01, |
|
"learning_rate": 2.1666666666666665e-08, |
|
"loss": 0.0686, |
|
"step": 4900 |
|
}, |
|
{ |
|
"epoch": 4.02, |
|
"learning_rate": 1.645833333333333e-08, |
|
"loss": 0.0595, |
|
"step": 4925 |
|
}, |
|
{ |
|
"epoch": 4.02, |
|
"learning_rate": 1.125e-08, |
|
"loss": 0.0784, |
|
"step": 4950 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"learning_rate": 6.041666666666666e-09, |
|
"loss": 0.0767, |
|
"step": 4975 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"learning_rate": 8.333333333333334e-10, |
|
"loss": 0.0692, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"eval_loss": 0.17108416557312012, |
|
"eval_runtime": 5757.3768, |
|
"eval_samples_per_second": 1.762, |
|
"eval_steps_per_second": 0.11, |
|
"eval_wer": 10.144624962040693, |
|
"step": 5000 |
|
}, |
|
{ |
|
"epoch": 4.03, |
|
"step": 5000, |
|
"total_flos": 1.6322330164985856e+20, |
|
"train_loss": 0.12449393980503082, |
|
"train_runtime": 57069.8569, |
|
"train_samples_per_second": 2.804, |
|
"train_steps_per_second": 0.088 |
|
} |
|
], |
|
"max_steps": 5000, |
|
"num_train_epochs": 9223372036854775807, |
|
"total_flos": 1.6322330164985856e+20, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|