diff --git "a/checkpoint-7200/trainer_state.json" "b/checkpoint-7200/trainer_state.json" new file mode 100644--- /dev/null +++ "b/checkpoint-7200/trainer_state.json" @@ -0,0 +1,5190 @@ +{ + "best_metric": 0.663003663003663, + "best_model_checkpoint": "/home/grahama/workspace/experiments/complexity/model/checkpoint-1800", + "epoch": 12.0, + "eval_steps": 500, + "global_step": 7200, + "is_hyper_param_search": false, + "is_local_process_zero": true, + "is_world_process_zero": true, + "log_history": [ + { + "epoch": 0.016666666666666666, + "grad_norm": 2.3482773303985596, + "learning_rate": 2.3809523809523811e-07, + "loss": 0.7019, + "step": 10 + }, + { + "epoch": 0.03333333333333333, + "grad_norm": 1.3639864921569824, + "learning_rate": 4.7619047619047623e-07, + "loss": 0.7018, + "step": 20 + }, + { + "epoch": 0.05, + "grad_norm": 2.9051921367645264, + "learning_rate": 7.142857142857143e-07, + "loss": 0.7151, + "step": 30 + }, + { + "epoch": 0.06666666666666667, + "grad_norm": 1.0235440731048584, + "learning_rate": 9.523809523809525e-07, + "loss": 0.7034, + "step": 40 + }, + { + "epoch": 0.08333333333333333, + "grad_norm": 2.771768808364868, + "learning_rate": 1.1904761904761906e-06, + "loss": 0.7006, + "step": 50 + }, + { + "epoch": 0.1, + "grad_norm": 1.2305303812026978, + "learning_rate": 1.4285714285714286e-06, + "loss": 0.6995, + "step": 60 + }, + { + "epoch": 0.11666666666666667, + "grad_norm": 2.2383503913879395, + "learning_rate": 1.6666666666666667e-06, + "loss": 0.6994, + "step": 70 + }, + { + "epoch": 0.13333333333333333, + "grad_norm": 1.0624160766601562, + "learning_rate": 1.904761904761905e-06, + "loss": 0.6998, + "step": 80 + }, + { + "epoch": 0.15, + "grad_norm": 1.2018228769302368, + "learning_rate": 2.1428571428571427e-06, + "loss": 0.6974, + "step": 90 + }, + { + "epoch": 0.16666666666666666, + "grad_norm": 1.0849791765213013, + "learning_rate": 2.380952380952381e-06, + "loss": 0.6875, + "step": 100 + }, + { + "epoch": 0.18333333333333332, + "grad_norm": 1.291517972946167, + "learning_rate": 2.6190476190476192e-06, + "loss": 0.6865, + "step": 110 + }, + { + "epoch": 0.2, + "grad_norm": 1.056863784790039, + "learning_rate": 2.8571428571428573e-06, + "loss": 0.6829, + "step": 120 + }, + { + "epoch": 0.21666666666666667, + "grad_norm": 2.968041181564331, + "learning_rate": 3.0952380952380957e-06, + "loss": 0.6696, + "step": 130 + }, + { + "epoch": 0.23333333333333334, + "grad_norm": 1.055704116821289, + "learning_rate": 3.3333333333333333e-06, + "loss": 0.6783, + "step": 140 + }, + { + "epoch": 0.25, + "grad_norm": 1.6586881875991821, + "learning_rate": 3.5714285714285718e-06, + "loss": 0.6702, + "step": 150 + }, + { + "epoch": 0.26666666666666666, + "grad_norm": 2.3964574337005615, + "learning_rate": 3.80952380952381e-06, + "loss": 0.709, + "step": 160 + }, + { + "epoch": 0.2833333333333333, + "grad_norm": 1.0744259357452393, + "learning_rate": 4.047619047619048e-06, + "loss": 0.7022, + "step": 170 + }, + { + "epoch": 0.3, + "grad_norm": 1.071405053138733, + "learning_rate": 4.2857142857142855e-06, + "loss": 0.6747, + "step": 180 + }, + { + "epoch": 0.31666666666666665, + "grad_norm": 2.1431033611297607, + "learning_rate": 4.523809523809524e-06, + "loss": 0.6623, + "step": 190 + }, + { + "epoch": 0.3333333333333333, + "grad_norm": 1.301439881324768, + "learning_rate": 4.761904761904762e-06, + "loss": 0.667, + "step": 200 + }, + { + "epoch": 0.35, + "grad_norm": 1.5243868827819824, + "learning_rate": 5e-06, + "loss": 0.6584, + "step": 210 + }, + { + "epoch": 0.36666666666666664, + "grad_norm": 1.2769250869750977, + "learning_rate": 5.2380952380952384e-06, + "loss": 0.6898, + "step": 220 + }, + { + "epoch": 0.38333333333333336, + "grad_norm": 1.274899959564209, + "learning_rate": 5.476190476190477e-06, + "loss": 0.6995, + "step": 230 + }, + { + "epoch": 0.4, + "grad_norm": 1.658318281173706, + "learning_rate": 5.7142857142857145e-06, + "loss": 0.6705, + "step": 240 + }, + { + "epoch": 0.4166666666666667, + "grad_norm": 2.4139277935028076, + "learning_rate": 5.9523809523809525e-06, + "loss": 0.6849, + "step": 250 + }, + { + "epoch": 0.43333333333333335, + "grad_norm": 1.5813899040222168, + "learning_rate": 6.1904761904761914e-06, + "loss": 0.6663, + "step": 260 + }, + { + "epoch": 0.45, + "grad_norm": 1.4048871994018555, + "learning_rate": 6.4285714285714295e-06, + "loss": 0.6542, + "step": 270 + }, + { + "epoch": 0.4666666666666667, + "grad_norm": 1.7416518926620483, + "learning_rate": 6.666666666666667e-06, + "loss": 0.6793, + "step": 280 + }, + { + "epoch": 0.48333333333333334, + "grad_norm": 1.7340086698532104, + "learning_rate": 6.9047619047619055e-06, + "loss": 0.6681, + "step": 290 + }, + { + "epoch": 0.5, + "grad_norm": 1.4946725368499756, + "learning_rate": 7.1428571428571436e-06, + "loss": 0.6758, + "step": 300 + }, + { + "epoch": 0.5166666666666667, + "grad_norm": 1.9904041290283203, + "learning_rate": 7.380952380952382e-06, + "loss": 0.6432, + "step": 310 + }, + { + "epoch": 0.5333333333333333, + "grad_norm": 2.4469521045684814, + "learning_rate": 7.61904761904762e-06, + "loss": 0.6688, + "step": 320 + }, + { + "epoch": 0.55, + "grad_norm": 2.104259967803955, + "learning_rate": 7.857142857142858e-06, + "loss": 0.6312, + "step": 330 + }, + { + "epoch": 0.5666666666666667, + "grad_norm": 2.125582218170166, + "learning_rate": 8.095238095238097e-06, + "loss": 0.6712, + "step": 340 + }, + { + "epoch": 0.5833333333333334, + "grad_norm": 1.9155024290084839, + "learning_rate": 8.333333333333334e-06, + "loss": 0.6766, + "step": 350 + }, + { + "epoch": 0.6, + "grad_norm": 3.6578118801116943, + "learning_rate": 8.571428571428571e-06, + "loss": 0.6561, + "step": 360 + }, + { + "epoch": 0.6166666666666667, + "grad_norm": 2.083104133605957, + "learning_rate": 8.80952380952381e-06, + "loss": 0.6374, + "step": 370 + }, + { + "epoch": 0.6333333333333333, + "grad_norm": 4.414960861206055, + "learning_rate": 9.047619047619049e-06, + "loss": 0.6512, + "step": 380 + }, + { + "epoch": 0.65, + "grad_norm": 2.075925588607788, + "learning_rate": 9.285714285714288e-06, + "loss": 0.6316, + "step": 390 + }, + { + "epoch": 0.6666666666666666, + "grad_norm": 3.132584571838379, + "learning_rate": 9.523809523809525e-06, + "loss": 0.6424, + "step": 400 + }, + { + "epoch": 0.6833333333333333, + "grad_norm": 2.2723052501678467, + "learning_rate": 9.761904761904762e-06, + "loss": 0.6395, + "step": 410 + }, + { + "epoch": 0.7, + "grad_norm": 4.37326192855835, + "learning_rate": 1e-05, + "loss": 0.6519, + "step": 420 + }, + { + "epoch": 0.7166666666666667, + "grad_norm": 3.2006280422210693, + "learning_rate": 1.0238095238095238e-05, + "loss": 0.6429, + "step": 430 + }, + { + "epoch": 0.7333333333333333, + "grad_norm": 3.0944504737854004, + "learning_rate": 1.0476190476190477e-05, + "loss": 0.6756, + "step": 440 + }, + { + "epoch": 0.75, + "grad_norm": 5.158036708831787, + "learning_rate": 1.0714285714285714e-05, + "loss": 0.6863, + "step": 450 + }, + { + "epoch": 0.7666666666666667, + "grad_norm": 3.744805335998535, + "learning_rate": 1.0952380952380955e-05, + "loss": 0.6826, + "step": 460 + }, + { + "epoch": 0.7833333333333333, + "grad_norm": 2.350935220718384, + "learning_rate": 1.1190476190476192e-05, + "loss": 0.6465, + "step": 470 + }, + { + "epoch": 0.8, + "grad_norm": 2.391106367111206, + "learning_rate": 1.1428571428571429e-05, + "loss": 0.6494, + "step": 480 + }, + { + "epoch": 0.8166666666666667, + "grad_norm": 2.6871049404144287, + "learning_rate": 1.1666666666666668e-05, + "loss": 0.614, + "step": 490 + }, + { + "epoch": 0.8333333333333334, + "grad_norm": 2.496380567550659, + "learning_rate": 1.1904761904761905e-05, + "loss": 0.639, + "step": 500 + }, + { + "epoch": 0.85, + "grad_norm": 3.1409785747528076, + "learning_rate": 1.2142857142857142e-05, + "loss": 0.6906, + "step": 510 + }, + { + "epoch": 0.8666666666666667, + "grad_norm": 2.4331531524658203, + "learning_rate": 1.2380952380952383e-05, + "loss": 0.5914, + "step": 520 + }, + { + "epoch": 0.8833333333333333, + "grad_norm": 2.956902265548706, + "learning_rate": 1.261904761904762e-05, + "loss": 0.7081, + "step": 530 + }, + { + "epoch": 0.9, + "grad_norm": 2.1885573863983154, + "learning_rate": 1.2857142857142859e-05, + "loss": 0.6466, + "step": 540 + }, + { + "epoch": 0.9166666666666666, + "grad_norm": 2.6431517601013184, + "learning_rate": 1.3095238095238096e-05, + "loss": 0.6631, + "step": 550 + }, + { + "epoch": 0.9333333333333333, + "grad_norm": 2.1615426540374756, + "learning_rate": 1.3333333333333333e-05, + "loss": 0.6735, + "step": 560 + }, + { + "epoch": 0.95, + "grad_norm": 2.0207862854003906, + "learning_rate": 1.3571428571428574e-05, + "loss": 0.6325, + "step": 570 + }, + { + "epoch": 0.9666666666666667, + "grad_norm": 2.8899736404418945, + "learning_rate": 1.3809523809523811e-05, + "loss": 0.6519, + "step": 580 + }, + { + "epoch": 0.9833333333333333, + "grad_norm": 2.453443765640259, + "learning_rate": 1.4047619047619048e-05, + "loss": 0.6532, + "step": 590 + }, + { + "epoch": 1.0, + "grad_norm": 3.556234121322632, + "learning_rate": 1.4285714285714287e-05, + "loss": 0.5941, + "step": 600 + }, + { + "epoch": 1.0, + "eval_accuracy": 0.6461538461538462, + "eval_loss": 0.6432204246520996, + "eval_runtime": 4.8353, + "eval_samples_per_second": 282.297, + "eval_steps_per_second": 17.786, + "step": 600 + }, + { + "epoch": 1.0166666666666666, + "grad_norm": 2.244147539138794, + "learning_rate": 1.4523809523809524e-05, + "loss": 0.6154, + "step": 610 + }, + { + "epoch": 1.0333333333333334, + "grad_norm": 2.3262217044830322, + "learning_rate": 1.4761904761904763e-05, + "loss": 0.5981, + "step": 620 + }, + { + "epoch": 1.05, + "grad_norm": 2.543795347213745, + "learning_rate": 1.5000000000000002e-05, + "loss": 0.6061, + "step": 630 + }, + { + "epoch": 1.0666666666666667, + "grad_norm": 3.5577542781829834, + "learning_rate": 1.523809523809524e-05, + "loss": 0.6432, + "step": 640 + }, + { + "epoch": 1.0833333333333333, + "grad_norm": 3.3030037879943848, + "learning_rate": 1.5476190476190476e-05, + "loss": 0.5663, + "step": 650 + }, + { + "epoch": 1.1, + "grad_norm": 2.2861194610595703, + "learning_rate": 1.5714285714285715e-05, + "loss": 0.6242, + "step": 660 + }, + { + "epoch": 1.1166666666666667, + "grad_norm": 3.9813036918640137, + "learning_rate": 1.5952380952380954e-05, + "loss": 0.6192, + "step": 670 + }, + { + "epoch": 1.1333333333333333, + "grad_norm": 5.103733062744141, + "learning_rate": 1.6190476190476193e-05, + "loss": 0.6288, + "step": 680 + }, + { + "epoch": 1.15, + "grad_norm": 4.313375949859619, + "learning_rate": 1.642857142857143e-05, + "loss": 0.5938, + "step": 690 + }, + { + "epoch": 1.1666666666666667, + "grad_norm": 3.633436918258667, + "learning_rate": 1.6666666666666667e-05, + "loss": 0.6003, + "step": 700 + }, + { + "epoch": 1.1833333333333333, + "grad_norm": 3.060312509536743, + "learning_rate": 1.6904761904761906e-05, + "loss": 0.6214, + "step": 710 + }, + { + "epoch": 1.2, + "grad_norm": 3.6623165607452393, + "learning_rate": 1.7142857142857142e-05, + "loss": 0.6283, + "step": 720 + }, + { + "epoch": 1.2166666666666668, + "grad_norm": 2.556682586669922, + "learning_rate": 1.7380952380952384e-05, + "loss": 0.603, + "step": 730 + }, + { + "epoch": 1.2333333333333334, + "grad_norm": 3.2409424781799316, + "learning_rate": 1.761904761904762e-05, + "loss": 0.6463, + "step": 740 + }, + { + "epoch": 1.25, + "grad_norm": 3.6875534057617188, + "learning_rate": 1.785714285714286e-05, + "loss": 0.5864, + "step": 750 + }, + { + "epoch": 1.2666666666666666, + "grad_norm": 2.9428772926330566, + "learning_rate": 1.8095238095238097e-05, + "loss": 0.6349, + "step": 760 + }, + { + "epoch": 1.2833333333333332, + "grad_norm": 2.926853656768799, + "learning_rate": 1.8333333333333333e-05, + "loss": 0.6658, + "step": 770 + }, + { + "epoch": 1.3, + "grad_norm": 3.1792550086975098, + "learning_rate": 1.8571428571428575e-05, + "loss": 0.6263, + "step": 780 + }, + { + "epoch": 1.3166666666666667, + "grad_norm": 2.887868642807007, + "learning_rate": 1.880952380952381e-05, + "loss": 0.5737, + "step": 790 + }, + { + "epoch": 1.3333333333333333, + "grad_norm": 3.9215023517608643, + "learning_rate": 1.904761904761905e-05, + "loss": 0.5895, + "step": 800 + }, + { + "epoch": 1.35, + "grad_norm": 3.228184938430786, + "learning_rate": 1.928571428571429e-05, + "loss": 0.675, + "step": 810 + }, + { + "epoch": 1.3666666666666667, + "grad_norm": 2.5528361797332764, + "learning_rate": 1.9523809523809524e-05, + "loss": 0.612, + "step": 820 + }, + { + "epoch": 1.3833333333333333, + "grad_norm": 3.355010509490967, + "learning_rate": 1.9761904761904763e-05, + "loss": 0.6137, + "step": 830 + }, + { + "epoch": 1.4, + "grad_norm": 5.365524768829346, + "learning_rate": 2e-05, + "loss": 0.6278, + "step": 840 + }, + { + "epoch": 1.4166666666666667, + "grad_norm": 2.9840915203094482, + "learning_rate": 1.999991365731819e-05, + "loss": 0.6106, + "step": 850 + }, + { + "epoch": 1.4333333333333333, + "grad_norm": 3.0227549076080322, + "learning_rate": 1.999965463076377e-05, + "loss": 0.6136, + "step": 860 + }, + { + "epoch": 1.45, + "grad_norm": 4.935601711273193, + "learning_rate": 1.999922292480975e-05, + "loss": 0.6194, + "step": 870 + }, + { + "epoch": 1.4666666666666668, + "grad_norm": 2.947390556335449, + "learning_rate": 1.999861854691106e-05, + "loss": 0.6737, + "step": 880 + }, + { + "epoch": 1.4833333333333334, + "grad_norm": 3.2077040672302246, + "learning_rate": 1.999784150750442e-05, + "loss": 0.5906, + "step": 890 + }, + { + "epoch": 1.5, + "grad_norm": 2.1263020038604736, + "learning_rate": 1.9996891820008165e-05, + "loss": 0.6731, + "step": 900 + }, + { + "epoch": 1.5166666666666666, + "grad_norm": 3.1736927032470703, + "learning_rate": 1.9995769500822007e-05, + "loss": 0.5658, + "step": 910 + }, + { + "epoch": 1.5333333333333332, + "grad_norm": 3.766897201538086, + "learning_rate": 1.999447456932676e-05, + "loss": 0.6082, + "step": 920 + }, + { + "epoch": 1.55, + "grad_norm": 7.309018135070801, + "learning_rate": 1.9993007047883988e-05, + "loss": 0.5453, + "step": 930 + }, + { + "epoch": 1.5666666666666667, + "grad_norm": 6.418699264526367, + "learning_rate": 1.9991366961835643e-05, + "loss": 0.6428, + "step": 940 + }, + { + "epoch": 1.5833333333333335, + "grad_norm": 2.967588424682617, + "learning_rate": 1.9989554339503612e-05, + "loss": 0.6075, + "step": 950 + }, + { + "epoch": 1.6, + "grad_norm": 3.2338814735412598, + "learning_rate": 1.9987569212189224e-05, + "loss": 0.6513, + "step": 960 + }, + { + "epoch": 1.6166666666666667, + "grad_norm": 2.6137988567352295, + "learning_rate": 1.9985411614172728e-05, + "loss": 0.6457, + "step": 970 + }, + { + "epoch": 1.6333333333333333, + "grad_norm": 2.2644853591918945, + "learning_rate": 1.9983081582712684e-05, + "loss": 0.6146, + "step": 980 + }, + { + "epoch": 1.65, + "grad_norm": 3.580810785293579, + "learning_rate": 1.9980579158045322e-05, + "loss": 0.6434, + "step": 990 + }, + { + "epoch": 1.6666666666666665, + "grad_norm": 3.8415021896362305, + "learning_rate": 1.997790438338385e-05, + "loss": 0.6149, + "step": 1000 + }, + { + "epoch": 1.6833333333333333, + "grad_norm": 3.2889180183410645, + "learning_rate": 1.997505730491772e-05, + "loss": 0.6029, + "step": 1010 + }, + { + "epoch": 1.7, + "grad_norm": 3.0964486598968506, + "learning_rate": 1.9972037971811802e-05, + "loss": 0.6128, + "step": 1020 + }, + { + "epoch": 1.7166666666666668, + "grad_norm": 3.3787407875061035, + "learning_rate": 1.9968846436205566e-05, + "loss": 0.6478, + "step": 1030 + }, + { + "epoch": 1.7333333333333334, + "grad_norm": 3.098156452178955, + "learning_rate": 1.9965482753212154e-05, + "loss": 0.617, + "step": 1040 + }, + { + "epoch": 1.75, + "grad_norm": 3.4448206424713135, + "learning_rate": 1.9961946980917457e-05, + "loss": 0.6047, + "step": 1050 + }, + { + "epoch": 1.7666666666666666, + "grad_norm": 2.8418798446655273, + "learning_rate": 1.995823918037908e-05, + "loss": 0.6228, + "step": 1060 + }, + { + "epoch": 1.7833333333333332, + "grad_norm": 2.9955010414123535, + "learning_rate": 1.9954359415625313e-05, + "loss": 0.6033, + "step": 1070 + }, + { + "epoch": 1.8, + "grad_norm": 3.4788753986358643, + "learning_rate": 1.9950307753654016e-05, + "loss": 0.5801, + "step": 1080 + }, + { + "epoch": 1.8166666666666667, + "grad_norm": 2.713418483734131, + "learning_rate": 1.994608426443146e-05, + "loss": 0.5789, + "step": 1090 + }, + { + "epoch": 1.8333333333333335, + "grad_norm": 3.982531785964966, + "learning_rate": 1.994168902089112e-05, + "loss": 0.6497, + "step": 1100 + }, + { + "epoch": 1.85, + "grad_norm": 2.0478599071502686, + "learning_rate": 1.9937122098932428e-05, + "loss": 0.6031, + "step": 1110 + }, + { + "epoch": 1.8666666666666667, + "grad_norm": 5.567689418792725, + "learning_rate": 1.9932383577419432e-05, + "loss": 0.6487, + "step": 1120 + }, + { + "epoch": 1.8833333333333333, + "grad_norm": 2.5129470825195312, + "learning_rate": 1.9927473538179467e-05, + "loss": 0.5877, + "step": 1130 + }, + { + "epoch": 1.9, + "grad_norm": 2.4075396060943604, + "learning_rate": 1.9922392066001724e-05, + "loss": 0.6478, + "step": 1140 + }, + { + "epoch": 1.9166666666666665, + "grad_norm": 3.643559217453003, + "learning_rate": 1.9917139248635788e-05, + "loss": 0.625, + "step": 1150 + }, + { + "epoch": 1.9333333333333333, + "grad_norm": 3.3517959117889404, + "learning_rate": 1.991171517679013e-05, + "loss": 0.6502, + "step": 1160 + }, + { + "epoch": 1.95, + "grad_norm": 2.3340976238250732, + "learning_rate": 1.9906119944130527e-05, + "loss": 0.6354, + "step": 1170 + }, + { + "epoch": 1.9666666666666668, + "grad_norm": 2.662628173828125, + "learning_rate": 1.9900353647278466e-05, + "loss": 0.6282, + "step": 1180 + }, + { + "epoch": 1.9833333333333334, + "grad_norm": 3.3780112266540527, + "learning_rate": 1.9894416385809444e-05, + "loss": 0.6428, + "step": 1190 + }, + { + "epoch": 2.0, + "grad_norm": 1.9971626996994019, + "learning_rate": 1.9888308262251286e-05, + "loss": 0.6028, + "step": 1200 + }, + { + "epoch": 2.0, + "eval_accuracy": 0.6571428571428571, + "eval_loss": 0.6266757845878601, + "eval_runtime": 1.9428, + "eval_samples_per_second": 702.601, + "eval_steps_per_second": 44.266, + "step": 1200 + }, + { + "epoch": 2.0166666666666666, + "grad_norm": 2.3505845069885254, + "learning_rate": 1.9882029382082342e-05, + "loss": 0.5231, + "step": 1210 + }, + { + "epoch": 2.033333333333333, + "grad_norm": 3.543018102645874, + "learning_rate": 1.9875579853729677e-05, + "loss": 0.6002, + "step": 1220 + }, + { + "epoch": 2.05, + "grad_norm": 2.687847852706909, + "learning_rate": 1.9868959788567213e-05, + "loss": 0.5469, + "step": 1230 + }, + { + "epoch": 2.066666666666667, + "grad_norm": 4.663837909698486, + "learning_rate": 1.9862169300913784e-05, + "loss": 0.5582, + "step": 1240 + }, + { + "epoch": 2.0833333333333335, + "grad_norm": 4.063023090362549, + "learning_rate": 1.9855208508031173e-05, + "loss": 0.549, + "step": 1250 + }, + { + "epoch": 2.1, + "grad_norm": 5.092895984649658, + "learning_rate": 1.9848077530122083e-05, + "loss": 0.607, + "step": 1260 + }, + { + "epoch": 2.1166666666666667, + "grad_norm": 3.7984111309051514, + "learning_rate": 1.9840776490328067e-05, + "loss": 0.592, + "step": 1270 + }, + { + "epoch": 2.1333333333333333, + "grad_norm": 3.775224447250366, + "learning_rate": 1.9833305514727396e-05, + "loss": 0.5196, + "step": 1280 + }, + { + "epoch": 2.15, + "grad_norm": 5.623272895812988, + "learning_rate": 1.9825664732332886e-05, + "loss": 0.5283, + "step": 1290 + }, + { + "epoch": 2.1666666666666665, + "grad_norm": 4.856538772583008, + "learning_rate": 1.981785427508966e-05, + "loss": 0.518, + "step": 1300 + }, + { + "epoch": 2.183333333333333, + "grad_norm": 5.726941108703613, + "learning_rate": 1.9809874277872886e-05, + "loss": 0.5532, + "step": 1310 + }, + { + "epoch": 2.2, + "grad_norm": 5.120604515075684, + "learning_rate": 1.9801724878485438e-05, + "loss": 0.5172, + "step": 1320 + }, + { + "epoch": 2.216666666666667, + "grad_norm": 7.325108051300049, + "learning_rate": 1.9793406217655516e-05, + "loss": 0.5383, + "step": 1330 + }, + { + "epoch": 2.2333333333333334, + "grad_norm": 5.705660820007324, + "learning_rate": 1.9784918439034216e-05, + "loss": 0.4953, + "step": 1340 + }, + { + "epoch": 2.25, + "grad_norm": 6.060757637023926, + "learning_rate": 1.977626168919305e-05, + "loss": 0.5214, + "step": 1350 + }, + { + "epoch": 2.2666666666666666, + "grad_norm": 3.8743319511413574, + "learning_rate": 1.9767436117621416e-05, + "loss": 0.5362, + "step": 1360 + }, + { + "epoch": 2.283333333333333, + "grad_norm": 4.374029636383057, + "learning_rate": 1.975844187672402e-05, + "loss": 0.5604, + "step": 1370 + }, + { + "epoch": 2.3, + "grad_norm": 6.106194019317627, + "learning_rate": 1.9749279121818235e-05, + "loss": 0.5306, + "step": 1380 + }, + { + "epoch": 2.3166666666666664, + "grad_norm": 5.56414270401001, + "learning_rate": 1.9739948011131438e-05, + "loss": 0.5369, + "step": 1390 + }, + { + "epoch": 2.3333333333333335, + "grad_norm": 3.9365651607513428, + "learning_rate": 1.973044870579824e-05, + "loss": 0.526, + "step": 1400 + }, + { + "epoch": 2.35, + "grad_norm": 4.8061394691467285, + "learning_rate": 1.9720781369857747e-05, + "loss": 0.5264, + "step": 1410 + }, + { + "epoch": 2.3666666666666667, + "grad_norm": 5.648602485656738, + "learning_rate": 1.9710946170250702e-05, + "loss": 0.5488, + "step": 1420 + }, + { + "epoch": 2.3833333333333333, + "grad_norm": 4.482698917388916, + "learning_rate": 1.9700943276816602e-05, + "loss": 0.5014, + "step": 1430 + }, + { + "epoch": 2.4, + "grad_norm": 5.18354606628418, + "learning_rate": 1.969077286229078e-05, + "loss": 0.5383, + "step": 1440 + }, + { + "epoch": 2.4166666666666665, + "grad_norm": 5.076839923858643, + "learning_rate": 1.9680435102301412e-05, + "loss": 0.5387, + "step": 1450 + }, + { + "epoch": 2.4333333333333336, + "grad_norm": 5.83772611618042, + "learning_rate": 1.9669930175366474e-05, + "loss": 0.4779, + "step": 1460 + }, + { + "epoch": 2.45, + "grad_norm": 5.16604471206665, + "learning_rate": 1.9659258262890683e-05, + "loss": 0.5521, + "step": 1470 + }, + { + "epoch": 2.466666666666667, + "grad_norm": 4.944518089294434, + "learning_rate": 1.964841954916235e-05, + "loss": 0.4844, + "step": 1480 + }, + { + "epoch": 2.4833333333333334, + "grad_norm": 6.394619941711426, + "learning_rate": 1.9637414221350198e-05, + "loss": 0.567, + "step": 1490 + }, + { + "epoch": 2.5, + "grad_norm": 5.958597183227539, + "learning_rate": 1.962624246950012e-05, + "loss": 0.4951, + "step": 1500 + }, + { + "epoch": 2.5166666666666666, + "grad_norm": 4.636740207672119, + "learning_rate": 1.9614904486531935e-05, + "loss": 0.5123, + "step": 1510 + }, + { + "epoch": 2.533333333333333, + "grad_norm": 4.756173610687256, + "learning_rate": 1.9603400468236e-05, + "loss": 0.58, + "step": 1520 + }, + { + "epoch": 2.55, + "grad_norm": 3.969093084335327, + "learning_rate": 1.9591730613269878e-05, + "loss": 0.5517, + "step": 1530 + }, + { + "epoch": 2.5666666666666664, + "grad_norm": 4.5238237380981445, + "learning_rate": 1.957989512315489e-05, + "loss": 0.5167, + "step": 1540 + }, + { + "epoch": 2.5833333333333335, + "grad_norm": 5.810571670532227, + "learning_rate": 1.9567894202272623e-05, + "loss": 0.4826, + "step": 1550 + }, + { + "epoch": 2.6, + "grad_norm": 4.773239612579346, + "learning_rate": 1.955572805786141e-05, + "loss": 0.5443, + "step": 1560 + }, + { + "epoch": 2.6166666666666667, + "grad_norm": 4.351752281188965, + "learning_rate": 1.9543396900012763e-05, + "loss": 0.526, + "step": 1570 + }, + { + "epoch": 2.6333333333333333, + "grad_norm": 5.192873954772949, + "learning_rate": 1.9530900941667733e-05, + "loss": 0.5179, + "step": 1580 + }, + { + "epoch": 2.65, + "grad_norm": 5.123302936553955, + "learning_rate": 1.9518240398613226e-05, + "loss": 0.528, + "step": 1590 + }, + { + "epoch": 2.6666666666666665, + "grad_norm": 4.081309795379639, + "learning_rate": 1.9505415489478293e-05, + "loss": 0.592, + "step": 1600 + }, + { + "epoch": 2.6833333333333336, + "grad_norm": 6.409515857696533, + "learning_rate": 1.949242643573034e-05, + "loss": 0.5388, + "step": 1610 + }, + { + "epoch": 2.7, + "grad_norm": 5.410388469696045, + "learning_rate": 1.947927346167132e-05, + "loss": 0.5233, + "step": 1620 + }, + { + "epoch": 2.716666666666667, + "grad_norm": 3.5235464572906494, + "learning_rate": 1.9465956794433837e-05, + "loss": 0.5285, + "step": 1630 + }, + { + "epoch": 2.7333333333333334, + "grad_norm": 5.431538105010986, + "learning_rate": 1.945247666397725e-05, + "loss": 0.4719, + "step": 1640 + }, + { + "epoch": 2.75, + "grad_norm": 6.913374900817871, + "learning_rate": 1.9438833303083677e-05, + "loss": 0.4603, + "step": 1650 + }, + { + "epoch": 2.7666666666666666, + "grad_norm": 6.34077262878418, + "learning_rate": 1.9425026947353994e-05, + "loss": 0.5288, + "step": 1660 + }, + { + "epoch": 2.783333333333333, + "grad_norm": 4.550387382507324, + "learning_rate": 1.9411057835203756e-05, + "loss": 0.4983, + "step": 1670 + }, + { + "epoch": 2.8, + "grad_norm": 4.740011692047119, + "learning_rate": 1.9396926207859085e-05, + "loss": 0.4939, + "step": 1680 + }, + { + "epoch": 2.8166666666666664, + "grad_norm": 5.84373664855957, + "learning_rate": 1.9382632309352503e-05, + "loss": 0.5498, + "step": 1690 + }, + { + "epoch": 2.8333333333333335, + "grad_norm": 4.3570027351379395, + "learning_rate": 1.936817638651871e-05, + "loss": 0.4716, + "step": 1700 + }, + { + "epoch": 2.85, + "grad_norm": 5.5916666984558105, + "learning_rate": 1.935355868899034e-05, + "loss": 0.5037, + "step": 1710 + }, + { + "epoch": 2.8666666666666667, + "grad_norm": 4.379909038543701, + "learning_rate": 1.9338779469193638e-05, + "loss": 0.5789, + "step": 1720 + }, + { + "epoch": 2.8833333333333333, + "grad_norm": 5.084365367889404, + "learning_rate": 1.9323838982344092e-05, + "loss": 0.5584, + "step": 1730 + }, + { + "epoch": 2.9, + "grad_norm": 6.741174221038818, + "learning_rate": 1.9308737486442045e-05, + "loss": 0.5089, + "step": 1740 + }, + { + "epoch": 2.9166666666666665, + "grad_norm": 6.0026469230651855, + "learning_rate": 1.9293475242268224e-05, + "loss": 0.4928, + "step": 1750 + }, + { + "epoch": 2.9333333333333336, + "grad_norm": 6.163332939147949, + "learning_rate": 1.9278052513379256e-05, + "loss": 0.5397, + "step": 1760 + }, + { + "epoch": 2.95, + "grad_norm": 5.151211738586426, + "learning_rate": 1.926246956610309e-05, + "loss": 0.5085, + "step": 1770 + }, + { + "epoch": 2.966666666666667, + "grad_norm": 5.902535915374756, + "learning_rate": 1.9246726669534416e-05, + "loss": 0.5619, + "step": 1780 + }, + { + "epoch": 2.9833333333333334, + "grad_norm": 4.26236629486084, + "learning_rate": 1.923082409553002e-05, + "loss": 0.4873, + "step": 1790 + }, + { + "epoch": 3.0, + "grad_norm": 9.270946502685547, + "learning_rate": 1.921476211870408e-05, + "loss": 0.5346, + "step": 1800 + }, + { + "epoch": 3.0, + "eval_accuracy": 0.663003663003663, + "eval_loss": 0.6800894737243652, + "eval_runtime": 2.0234, + "eval_samples_per_second": 674.621, + "eval_steps_per_second": 42.504, + "step": 1800 + }, + { + "epoch": 3.0166666666666666, + "grad_norm": 8.520913124084473, + "learning_rate": 1.919854101642342e-05, + "loss": 0.4134, + "step": 1810 + }, + { + "epoch": 3.033333333333333, + "grad_norm": 5.5546875, + "learning_rate": 1.9182161068802742e-05, + "loss": 0.3542, + "step": 1820 + }, + { + "epoch": 3.05, + "grad_norm": 7.717833518981934, + "learning_rate": 1.9165622558699763e-05, + "loss": 0.4404, + "step": 1830 + }, + { + "epoch": 3.066666666666667, + "grad_norm": 11.350333213806152, + "learning_rate": 1.9148925771710347e-05, + "loss": 0.3732, + "step": 1840 + }, + { + "epoch": 3.0833333333333335, + "grad_norm": 6.214349269866943, + "learning_rate": 1.913207099616357e-05, + "loss": 0.3868, + "step": 1850 + }, + { + "epoch": 3.1, + "grad_norm": 5.783053874969482, + "learning_rate": 1.9115058523116734e-05, + "loss": 0.344, + "step": 1860 + }, + { + "epoch": 3.1166666666666667, + "grad_norm": 7.447259902954102, + "learning_rate": 1.9097888646350347e-05, + "loss": 0.4027, + "step": 1870 + }, + { + "epoch": 3.1333333333333333, + "grad_norm": 6.286544322967529, + "learning_rate": 1.908056166236305e-05, + "loss": 0.4391, + "step": 1880 + }, + { + "epoch": 3.15, + "grad_norm": 9.073515892028809, + "learning_rate": 1.9063077870366504e-05, + "loss": 0.3945, + "step": 1890 + }, + { + "epoch": 3.1666666666666665, + "grad_norm": 6.541659355163574, + "learning_rate": 1.9045437572280193e-05, + "loss": 0.3617, + "step": 1900 + }, + { + "epoch": 3.183333333333333, + "grad_norm": 7.9517693519592285, + "learning_rate": 1.902764107272626e-05, + "loss": 0.4313, + "step": 1910 + }, + { + "epoch": 3.2, + "grad_norm": 7.137308597564697, + "learning_rate": 1.900968867902419e-05, + "loss": 0.3241, + "step": 1920 + }, + { + "epoch": 3.216666666666667, + "grad_norm": 6.320766925811768, + "learning_rate": 1.8991580701185564e-05, + "loss": 0.37, + "step": 1930 + }, + { + "epoch": 3.2333333333333334, + "grad_norm": 6.064675331115723, + "learning_rate": 1.8973317451908642e-05, + "loss": 0.2816, + "step": 1940 + }, + { + "epoch": 3.25, + "grad_norm": 10.319533348083496, + "learning_rate": 1.895489924657301e-05, + "loss": 0.3939, + "step": 1950 + }, + { + "epoch": 3.2666666666666666, + "grad_norm": 7.237499237060547, + "learning_rate": 1.8936326403234125e-05, + "loss": 0.3757, + "step": 1960 + }, + { + "epoch": 3.283333333333333, + "grad_norm": 6.379919528961182, + "learning_rate": 1.8917599242617796e-05, + "loss": 0.3589, + "step": 1970 + }, + { + "epoch": 3.3, + "grad_norm": 10.484453201293945, + "learning_rate": 1.8898718088114688e-05, + "loss": 0.3744, + "step": 1980 + }, + { + "epoch": 3.3166666666666664, + "grad_norm": 12.126269340515137, + "learning_rate": 1.8879683265774695e-05, + "loss": 0.4276, + "step": 1990 + }, + { + "epoch": 3.3333333333333335, + "grad_norm": 9.69861125946045, + "learning_rate": 1.8860495104301346e-05, + "loss": 0.3777, + "step": 2000 + }, + { + "epoch": 3.35, + "grad_norm": 4.834460258483887, + "learning_rate": 1.8841153935046098e-05, + "loss": 0.3158, + "step": 2010 + }, + { + "epoch": 3.3666666666666667, + "grad_norm": 6.695274829864502, + "learning_rate": 1.8821660092002642e-05, + "loss": 0.3942, + "step": 2020 + }, + { + "epoch": 3.3833333333333333, + "grad_norm": 10.60463809967041, + "learning_rate": 1.880201391180111e-05, + "loss": 0.301, + "step": 2030 + }, + { + "epoch": 3.4, + "grad_norm": 5.748558044433594, + "learning_rate": 1.8782215733702286e-05, + "loss": 0.3826, + "step": 2040 + }, + { + "epoch": 3.4166666666666665, + "grad_norm": 6.971687316894531, + "learning_rate": 1.8762265899591724e-05, + "loss": 0.3766, + "step": 2050 + }, + { + "epoch": 3.4333333333333336, + "grad_norm": 10.618817329406738, + "learning_rate": 1.874216475397386e-05, + "loss": 0.3522, + "step": 2060 + }, + { + "epoch": 3.45, + "grad_norm": 8.329767227172852, + "learning_rate": 1.8721912643966055e-05, + "loss": 0.342, + "step": 2070 + }, + { + "epoch": 3.466666666666667, + "grad_norm": 9.268407821655273, + "learning_rate": 1.870150991929261e-05, + "loss": 0.2877, + "step": 2080 + }, + { + "epoch": 3.4833333333333334, + "grad_norm": 6.828186511993408, + "learning_rate": 1.868095693227872e-05, + "loss": 0.3706, + "step": 2090 + }, + { + "epoch": 3.5, + "grad_norm": 11.919193267822266, + "learning_rate": 1.866025403784439e-05, + "loss": 0.3724, + "step": 2100 + }, + { + "epoch": 3.5166666666666666, + "grad_norm": 14.13306713104248, + "learning_rate": 1.86394015934983e-05, + "loss": 0.3663, + "step": 2110 + }, + { + "epoch": 3.533333333333333, + "grad_norm": 7.187041759490967, + "learning_rate": 1.8618399959331642e-05, + "loss": 0.3007, + "step": 2120 + }, + { + "epoch": 3.55, + "grad_norm": 15.558795928955078, + "learning_rate": 1.8597249498011906e-05, + "loss": 0.3907, + "step": 2130 + }, + { + "epoch": 3.5666666666666664, + "grad_norm": 11.272549629211426, + "learning_rate": 1.8575950574776595e-05, + "loss": 0.4012, + "step": 2140 + }, + { + "epoch": 3.5833333333333335, + "grad_norm": 15.731003761291504, + "learning_rate": 1.855450355742695e-05, + "loss": 0.4231, + "step": 2150 + }, + { + "epoch": 3.6, + "grad_norm": 7.192224502563477, + "learning_rate": 1.8532908816321557e-05, + "loss": 0.3396, + "step": 2160 + }, + { + "epoch": 3.6166666666666667, + "grad_norm": 8.559320449829102, + "learning_rate": 1.8511166724369997e-05, + "loss": 0.319, + "step": 2170 + }, + { + "epoch": 3.6333333333333333, + "grad_norm": 9.286134719848633, + "learning_rate": 1.8489277657026377e-05, + "loss": 0.3728, + "step": 2180 + }, + { + "epoch": 3.65, + "grad_norm": 7.382202625274658, + "learning_rate": 1.8467241992282842e-05, + "loss": 0.3955, + "step": 2190 + }, + { + "epoch": 3.6666666666666665, + "grad_norm": 11.097570419311523, + "learning_rate": 1.844506011066308e-05, + "loss": 0.373, + "step": 2200 + }, + { + "epoch": 3.6833333333333336, + "grad_norm": 10.186798095703125, + "learning_rate": 1.8422732395215717e-05, + "loss": 0.458, + "step": 2210 + }, + { + "epoch": 3.7, + "grad_norm": 9.413180351257324, + "learning_rate": 1.8400259231507716e-05, + "loss": 0.3728, + "step": 2220 + }, + { + "epoch": 3.716666666666667, + "grad_norm": 8.126789093017578, + "learning_rate": 1.8377641007617724e-05, + "loss": 0.3829, + "step": 2230 + }, + { + "epoch": 3.7333333333333334, + "grad_norm": 9.19456672668457, + "learning_rate": 1.8354878114129368e-05, + "loss": 0.321, + "step": 2240 + }, + { + "epoch": 3.75, + "grad_norm": 17.7072811126709, + "learning_rate": 1.833197094412449e-05, + "loss": 0.3729, + "step": 2250 + }, + { + "epoch": 3.7666666666666666, + "grad_norm": 9.825091361999512, + "learning_rate": 1.8308919893176397e-05, + "loss": 0.3191, + "step": 2260 + }, + { + "epoch": 3.783333333333333, + "grad_norm": 11.167253494262695, + "learning_rate": 1.8285725359343e-05, + "loss": 0.4161, + "step": 2270 + }, + { + "epoch": 3.8, + "grad_norm": 9.785726547241211, + "learning_rate": 1.826238774315995e-05, + "loss": 0.3167, + "step": 2280 + }, + { + "epoch": 3.8166666666666664, + "grad_norm": 6.7009758949279785, + "learning_rate": 1.8238907447633716e-05, + "loss": 0.3276, + "step": 2290 + }, + { + "epoch": 3.8333333333333335, + "grad_norm": 10.958868980407715, + "learning_rate": 1.8215284878234644e-05, + "loss": 0.2454, + "step": 2300 + }, + { + "epoch": 3.85, + "grad_norm": 18.93035125732422, + "learning_rate": 1.819152044288992e-05, + "loss": 0.3836, + "step": 2310 + }, + { + "epoch": 3.8666666666666667, + "grad_norm": 11.231881141662598, + "learning_rate": 1.816761455197657e-05, + "loss": 0.3491, + "step": 2320 + }, + { + "epoch": 3.8833333333333333, + "grad_norm": 7.044066429138184, + "learning_rate": 1.8143567618314336e-05, + "loss": 0.3129, + "step": 2330 + }, + { + "epoch": 3.9, + "grad_norm": 7.4137492179870605, + "learning_rate": 1.811938005715857e-05, + "loss": 0.3848, + "step": 2340 + }, + { + "epoch": 3.9166666666666665, + "grad_norm": 3.7917087078094482, + "learning_rate": 1.8095052286193044e-05, + "loss": 0.2613, + "step": 2350 + }, + { + "epoch": 3.9333333333333336, + "grad_norm": 7.329050064086914, + "learning_rate": 1.8070584725522763e-05, + "loss": 0.2839, + "step": 2360 + }, + { + "epoch": 3.95, + "grad_norm": 8.250350952148438, + "learning_rate": 1.8045977797666685e-05, + "loss": 0.426, + "step": 2370 + }, + { + "epoch": 3.966666666666667, + "grad_norm": 13.169599533081055, + "learning_rate": 1.802123192755044e-05, + "loss": 0.371, + "step": 2380 + }, + { + "epoch": 3.9833333333333334, + "grad_norm": 5.934089660644531, + "learning_rate": 1.7996347542498983e-05, + "loss": 0.3463, + "step": 2390 + }, + { + "epoch": 4.0, + "grad_norm": 5.9008307456970215, + "learning_rate": 1.7971325072229227e-05, + "loss": 0.2974, + "step": 2400 + }, + { + "epoch": 4.0, + "eval_accuracy": 0.6446886446886447, + "eval_loss": 0.8408761024475098, + "eval_runtime": 1.9227, + "eval_samples_per_second": 709.925, + "eval_steps_per_second": 44.728, + "step": 2400 + }, + { + "epoch": 4.016666666666667, + "grad_norm": 6.800796031951904, + "learning_rate": 1.7946164948842604e-05, + "loss": 0.1916, + "step": 2410 + }, + { + "epoch": 4.033333333333333, + "grad_norm": 11.187984466552734, + "learning_rate": 1.7920867606817625e-05, + "loss": 0.1926, + "step": 2420 + }, + { + "epoch": 4.05, + "grad_norm": 8.755463600158691, + "learning_rate": 1.7895433483002356e-05, + "loss": 0.1996, + "step": 2430 + }, + { + "epoch": 4.066666666666666, + "grad_norm": 10.346768379211426, + "learning_rate": 1.7869863016606893e-05, + "loss": 0.1962, + "step": 2440 + }, + { + "epoch": 4.083333333333333, + "grad_norm": 8.716865539550781, + "learning_rate": 1.784415664919576e-05, + "loss": 0.2325, + "step": 2450 + }, + { + "epoch": 4.1, + "grad_norm": 24.440990447998047, + "learning_rate": 1.78183148246803e-05, + "loss": 0.1739, + "step": 2460 + }, + { + "epoch": 4.116666666666666, + "grad_norm": 8.765872955322266, + "learning_rate": 1.7792337989311e-05, + "loss": 0.2363, + "step": 2470 + }, + { + "epoch": 4.133333333333334, + "grad_norm": 15.551268577575684, + "learning_rate": 1.7766226591669787e-05, + "loss": 0.2068, + "step": 2480 + }, + { + "epoch": 4.15, + "grad_norm": 14.396734237670898, + "learning_rate": 1.7739981082662275e-05, + "loss": 0.161, + "step": 2490 + }, + { + "epoch": 4.166666666666667, + "grad_norm": 5.329517364501953, + "learning_rate": 1.771360191551e-05, + "loss": 0.2353, + "step": 2500 + }, + { + "epoch": 4.183333333333334, + "grad_norm": 10.50860595703125, + "learning_rate": 1.768708954574256e-05, + "loss": 0.2031, + "step": 2510 + }, + { + "epoch": 4.2, + "grad_norm": 21.69150733947754, + "learning_rate": 1.766044443118978e-05, + "loss": 0.255, + "step": 2520 + }, + { + "epoch": 4.216666666666667, + "grad_norm": 9.158199310302734, + "learning_rate": 1.7633667031973793e-05, + "loss": 0.2332, + "step": 2530 + }, + { + "epoch": 4.233333333333333, + "grad_norm": 8.26563549041748, + "learning_rate": 1.760675781050109e-05, + "loss": 0.2283, + "step": 2540 + }, + { + "epoch": 4.25, + "grad_norm": 6.22615385055542, + "learning_rate": 1.757971723145453e-05, + "loss": 0.1477, + "step": 2550 + }, + { + "epoch": 4.266666666666667, + "grad_norm": 12.131237030029297, + "learning_rate": 1.755254576178535e-05, + "loss": 0.2278, + "step": 2560 + }, + { + "epoch": 4.283333333333333, + "grad_norm": 5.079014301300049, + "learning_rate": 1.7525243870705052e-05, + "loss": 0.3017, + "step": 2570 + }, + { + "epoch": 4.3, + "grad_norm": 6.722441673278809, + "learning_rate": 1.7497812029677344e-05, + "loss": 0.1893, + "step": 2580 + }, + { + "epoch": 4.316666666666666, + "grad_norm": 19.649364471435547, + "learning_rate": 1.7470250712409963e-05, + "loss": 0.2215, + "step": 2590 + }, + { + "epoch": 4.333333333333333, + "grad_norm": 16.80063819885254, + "learning_rate": 1.7442560394846518e-05, + "loss": 0.2135, + "step": 2600 + }, + { + "epoch": 4.35, + "grad_norm": 4.162881374359131, + "learning_rate": 1.741474155515827e-05, + "loss": 0.1982, + "step": 2610 + }, + { + "epoch": 4.366666666666666, + "grad_norm": 9.364086151123047, + "learning_rate": 1.738679467373586e-05, + "loss": 0.1148, + "step": 2620 + }, + { + "epoch": 4.383333333333334, + "grad_norm": 8.457878112792969, + "learning_rate": 1.7358720233181023e-05, + "loss": 0.2432, + "step": 2630 + }, + { + "epoch": 4.4, + "grad_norm": 18.436786651611328, + "learning_rate": 1.7330518718298263e-05, + "loss": 0.1917, + "step": 2640 + }, + { + "epoch": 4.416666666666667, + "grad_norm": 11.05576229095459, + "learning_rate": 1.7302190616086464e-05, + "loss": 0.2301, + "step": 2650 + }, + { + "epoch": 4.433333333333334, + "grad_norm": 14.231767654418945, + "learning_rate": 1.7273736415730488e-05, + "loss": 0.1694, + "step": 2660 + }, + { + "epoch": 4.45, + "grad_norm": 4.897223472595215, + "learning_rate": 1.7245156608592727e-05, + "loss": 0.2034, + "step": 2670 + }, + { + "epoch": 4.466666666666667, + "grad_norm": 18.942005157470703, + "learning_rate": 1.7216451688204623e-05, + "loss": 0.2294, + "step": 2680 + }, + { + "epoch": 4.483333333333333, + "grad_norm": 28.590120315551758, + "learning_rate": 1.718762215025813e-05, + "loss": 0.21, + "step": 2690 + }, + { + "epoch": 4.5, + "grad_norm": 9.035322189331055, + "learning_rate": 1.7158668492597186e-05, + "loss": 0.1367, + "step": 2700 + }, + { + "epoch": 4.516666666666667, + "grad_norm": 8.326066017150879, + "learning_rate": 1.712959121520907e-05, + "loss": 0.2171, + "step": 2710 + }, + { + "epoch": 4.533333333333333, + "grad_norm": 18.64793586730957, + "learning_rate": 1.7100390820215805e-05, + "loss": 0.203, + "step": 2720 + }, + { + "epoch": 4.55, + "grad_norm": 6.613404750823975, + "learning_rate": 1.7071067811865477e-05, + "loss": 0.2896, + "step": 2730 + }, + { + "epoch": 4.566666666666666, + "grad_norm": 2.993422031402588, + "learning_rate": 1.704162269652352e-05, + "loss": 0.2196, + "step": 2740 + }, + { + "epoch": 4.583333333333333, + "grad_norm": 8.488532066345215, + "learning_rate": 1.701205598266398e-05, + "loss": 0.1421, + "step": 2750 + }, + { + "epoch": 4.6, + "grad_norm": 5.658782005310059, + "learning_rate": 1.698236818086073e-05, + "loss": 0.2469, + "step": 2760 + }, + { + "epoch": 4.616666666666667, + "grad_norm": 14.441184043884277, + "learning_rate": 1.6952559803778656e-05, + "loss": 0.1689, + "step": 2770 + }, + { + "epoch": 4.633333333333333, + "grad_norm": 10.702966690063477, + "learning_rate": 1.6922631366164795e-05, + "loss": 0.2721, + "step": 2780 + }, + { + "epoch": 4.65, + "grad_norm": 13.82749080657959, + "learning_rate": 1.689258338483947e-05, + "loss": 0.2687, + "step": 2790 + }, + { + "epoch": 4.666666666666667, + "grad_norm": 22.718114852905273, + "learning_rate": 1.686241637868734e-05, + "loss": 0.2094, + "step": 2800 + }, + { + "epoch": 4.683333333333334, + "grad_norm": 23.70955467224121, + "learning_rate": 1.683213086864843e-05, + "loss": 0.2468, + "step": 2810 + }, + { + "epoch": 4.7, + "grad_norm": 14.313791275024414, + "learning_rate": 1.6801727377709195e-05, + "loss": 0.3572, + "step": 2820 + }, + { + "epoch": 4.716666666666667, + "grad_norm": 1.280615210533142, + "learning_rate": 1.6771206430893408e-05, + "loss": 0.1585, + "step": 2830 + }, + { + "epoch": 4.733333333333333, + "grad_norm": 18.38262367248535, + "learning_rate": 1.6740568555253153e-05, + "loss": 0.1866, + "step": 2840 + }, + { + "epoch": 4.75, + "grad_norm": 13.082511901855469, + "learning_rate": 1.67098142798597e-05, + "loss": 0.2372, + "step": 2850 + }, + { + "epoch": 4.766666666666667, + "grad_norm": 6.905370712280273, + "learning_rate": 1.6678944135794375e-05, + "loss": 0.2246, + "step": 2860 + }, + { + "epoch": 4.783333333333333, + "grad_norm": 5.4606122970581055, + "learning_rate": 1.6647958656139377e-05, + "loss": 0.2433, + "step": 2870 + }, + { + "epoch": 4.8, + "grad_norm": 17.865739822387695, + "learning_rate": 1.6616858375968596e-05, + "loss": 0.2549, + "step": 2880 + }, + { + "epoch": 4.816666666666666, + "grad_norm": 41.44401550292969, + "learning_rate": 1.6585643832338342e-05, + "loss": 0.2584, + "step": 2890 + }, + { + "epoch": 4.833333333333333, + "grad_norm": 15.979497909545898, + "learning_rate": 1.6554315564278102e-05, + "loss": 0.2374, + "step": 2900 + }, + { + "epoch": 4.85, + "grad_norm": 8.889433860778809, + "learning_rate": 1.6522874112781213e-05, + "loss": 0.3334, + "step": 2910 + }, + { + "epoch": 4.866666666666667, + "grad_norm": 10.734085083007812, + "learning_rate": 1.649132002079552e-05, + "loss": 0.1694, + "step": 2920 + }, + { + "epoch": 4.883333333333333, + "grad_norm": 7.850935935974121, + "learning_rate": 1.645965383321401e-05, + "loss": 0.1457, + "step": 2930 + }, + { + "epoch": 4.9, + "grad_norm": 6.674160480499268, + "learning_rate": 1.6427876096865394e-05, + "loss": 0.2299, + "step": 2940 + }, + { + "epoch": 4.916666666666667, + "grad_norm": 24.8321590423584, + "learning_rate": 1.6395987360504667e-05, + "loss": 0.2227, + "step": 2950 + }, + { + "epoch": 4.933333333333334, + "grad_norm": 21.398326873779297, + "learning_rate": 1.6363988174803638e-05, + "loss": 0.2475, + "step": 2960 + }, + { + "epoch": 4.95, + "grad_norm": 12.976921081542969, + "learning_rate": 1.6331879092341402e-05, + "loss": 0.1802, + "step": 2970 + }, + { + "epoch": 4.966666666666667, + "grad_norm": 14.042061805725098, + "learning_rate": 1.6299660667594814e-05, + "loss": 0.2516, + "step": 2980 + }, + { + "epoch": 4.983333333333333, + "grad_norm": 21.662731170654297, + "learning_rate": 1.626733345692892e-05, + "loss": 0.3282, + "step": 2990 + }, + { + "epoch": 5.0, + "grad_norm": 17.608373641967773, + "learning_rate": 1.6234898018587336e-05, + "loss": 0.2124, + "step": 3000 + }, + { + "epoch": 5.0, + "eval_accuracy": 0.6293040293040293, + "eval_loss": 1.200034737586975, + "eval_runtime": 1.9884, + "eval_samples_per_second": 686.487, + "eval_steps_per_second": 43.251, + "step": 3000 + }, + { + "epoch": 5.016666666666667, + "grad_norm": 1.0147602558135986, + "learning_rate": 1.6202354912682602e-05, + "loss": 0.0847, + "step": 3010 + }, + { + "epoch": 5.033333333333333, + "grad_norm": 20.401517868041992, + "learning_rate": 1.6169704701186528e-05, + "loss": 0.1415, + "step": 3020 + }, + { + "epoch": 5.05, + "grad_norm": 1.022953987121582, + "learning_rate": 1.6136947947920477e-05, + "loss": 0.1371, + "step": 3030 + }, + { + "epoch": 5.066666666666666, + "grad_norm": 10.270929336547852, + "learning_rate": 1.6104085218545633e-05, + "loss": 0.1774, + "step": 3040 + }, + { + "epoch": 5.083333333333333, + "grad_norm": 8.564648628234863, + "learning_rate": 1.6071117080553236e-05, + "loss": 0.131, + "step": 3050 + }, + { + "epoch": 5.1, + "grad_norm": 4.6336669921875, + "learning_rate": 1.6038044103254775e-05, + "loss": 0.0821, + "step": 3060 + }, + { + "epoch": 5.116666666666666, + "grad_norm": 5.73518180847168, + "learning_rate": 1.600486685777216e-05, + "loss": 0.0531, + "step": 3070 + }, + { + "epoch": 5.133333333333334, + "grad_norm": 24.018949508666992, + "learning_rate": 1.5971585917027864e-05, + "loss": 0.1445, + "step": 3080 + }, + { + "epoch": 5.15, + "grad_norm": 2.413054943084717, + "learning_rate": 1.5938201855735017e-05, + "loss": 0.1126, + "step": 3090 + }, + { + "epoch": 5.166666666666667, + "grad_norm": 16.5898380279541, + "learning_rate": 1.5904715250387498e-05, + "loss": 0.1097, + "step": 3100 + }, + { + "epoch": 5.183333333333334, + "grad_norm": 21.17631721496582, + "learning_rate": 1.5871126679249977e-05, + "loss": 0.1689, + "step": 3110 + }, + { + "epoch": 5.2, + "grad_norm": 15.361016273498535, + "learning_rate": 1.5837436722347902e-05, + "loss": 0.1159, + "step": 3120 + }, + { + "epoch": 5.216666666666667, + "grad_norm": 37.31953811645508, + "learning_rate": 1.5803645961457522e-05, + "loss": 0.1664, + "step": 3130 + }, + { + "epoch": 5.233333333333333, + "grad_norm": 1.088923692703247, + "learning_rate": 1.576975498009583e-05, + "loss": 0.1183, + "step": 3140 + }, + { + "epoch": 5.25, + "grad_norm": 33.75508499145508, + "learning_rate": 1.573576436351046e-05, + "loss": 0.1523, + "step": 3150 + }, + { + "epoch": 5.266666666666667, + "grad_norm": 8.551312446594238, + "learning_rate": 1.570167469866962e-05, + "loss": 0.1255, + "step": 3160 + }, + { + "epoch": 5.283333333333333, + "grad_norm": 23.379915237426758, + "learning_rate": 1.5667486574251916e-05, + "loss": 0.1269, + "step": 3170 + }, + { + "epoch": 5.3, + "grad_norm": 25.599714279174805, + "learning_rate": 1.563320058063622e-05, + "loss": 0.1512, + "step": 3180 + }, + { + "epoch": 5.316666666666666, + "grad_norm": 1.7940479516983032, + "learning_rate": 1.5598817309891466e-05, + "loss": 0.0789, + "step": 3190 + }, + { + "epoch": 5.333333333333333, + "grad_norm": 20.735576629638672, + "learning_rate": 1.5564337355766412e-05, + "loss": 0.1547, + "step": 3200 + }, + { + "epoch": 5.35, + "grad_norm": 19.863126754760742, + "learning_rate": 1.5529761313679396e-05, + "loss": 0.1903, + "step": 3210 + }, + { + "epoch": 5.366666666666666, + "grad_norm": 19.80723762512207, + "learning_rate": 1.5495089780708062e-05, + "loss": 0.1854, + "step": 3220 + }, + { + "epoch": 5.383333333333334, + "grad_norm": 28.49349021911621, + "learning_rate": 1.5460323355579035e-05, + "loss": 0.1848, + "step": 3230 + }, + { + "epoch": 5.4, + "grad_norm": 27.559804916381836, + "learning_rate": 1.5425462638657597e-05, + "loss": 0.1439, + "step": 3240 + }, + { + "epoch": 5.416666666666667, + "grad_norm": 0.3180895745754242, + "learning_rate": 1.53905082319373e-05, + "loss": 0.0273, + "step": 3250 + }, + { + "epoch": 5.433333333333334, + "grad_norm": 2.8709073066711426, + "learning_rate": 1.5355460739029585e-05, + "loss": 0.2483, + "step": 3260 + }, + { + "epoch": 5.45, + "grad_norm": 0.46991926431655884, + "learning_rate": 1.5320320765153367e-05, + "loss": 0.0698, + "step": 3270 + }, + { + "epoch": 5.466666666666667, + "grad_norm": 0.3897984027862549, + "learning_rate": 1.5285088917124555e-05, + "loss": 0.2807, + "step": 3280 + }, + { + "epoch": 5.483333333333333, + "grad_norm": 0.5438683032989502, + "learning_rate": 1.5249765803345602e-05, + "loss": 0.179, + "step": 3290 + }, + { + "epoch": 5.5, + "grad_norm": 27.689308166503906, + "learning_rate": 1.5214352033794981e-05, + "loss": 0.0847, + "step": 3300 + }, + { + "epoch": 5.516666666666667, + "grad_norm": 28.62678337097168, + "learning_rate": 1.517884822001666e-05, + "loss": 0.2363, + "step": 3310 + }, + { + "epoch": 5.533333333333333, + "grad_norm": 23.103588104248047, + "learning_rate": 1.5143254975109538e-05, + "loss": 0.1293, + "step": 3320 + }, + { + "epoch": 5.55, + "grad_norm": 0.12534061074256897, + "learning_rate": 1.5107572913716859e-05, + "loss": 0.0927, + "step": 3330 + }, + { + "epoch": 5.566666666666666, + "grad_norm": 0.5081673264503479, + "learning_rate": 1.5071802652015592e-05, + "loss": 0.122, + "step": 3340 + }, + { + "epoch": 5.583333333333333, + "grad_norm": 16.712963104248047, + "learning_rate": 1.503594480770581e-05, + "loss": 0.2284, + "step": 3350 + }, + { + "epoch": 5.6, + "grad_norm": 15.965821266174316, + "learning_rate": 1.5000000000000002e-05, + "loss": 0.1329, + "step": 3360 + }, + { + "epoch": 5.616666666666667, + "grad_norm": 25.123790740966797, + "learning_rate": 1.496396884961238e-05, + "loss": 0.1604, + "step": 3370 + }, + { + "epoch": 5.633333333333333, + "grad_norm": 1.8998332023620605, + "learning_rate": 1.4927851978748177e-05, + "loss": 0.0968, + "step": 3380 + }, + { + "epoch": 5.65, + "grad_norm": 24.31692123413086, + "learning_rate": 1.4891650011092896e-05, + "loss": 0.1516, + "step": 3390 + }, + { + "epoch": 5.666666666666667, + "grad_norm": 5.178999423980713, + "learning_rate": 1.4855363571801523e-05, + "loss": 0.1714, + "step": 3400 + }, + { + "epoch": 5.683333333333334, + "grad_norm": 29.019245147705078, + "learning_rate": 1.481899328748776e-05, + "loss": 0.2386, + "step": 3410 + }, + { + "epoch": 5.7, + "grad_norm": 6.961763381958008, + "learning_rate": 1.4782539786213184e-05, + "loss": 0.1293, + "step": 3420 + }, + { + "epoch": 5.716666666666667, + "grad_norm": 33.04340744018555, + "learning_rate": 1.4746003697476406e-05, + "loss": 0.2424, + "step": 3430 + }, + { + "epoch": 5.733333333333333, + "grad_norm": 23.46949577331543, + "learning_rate": 1.4709385652202204e-05, + "loss": 0.1184, + "step": 3440 + }, + { + "epoch": 5.75, + "grad_norm": 8.250195503234863, + "learning_rate": 1.4672686282730622e-05, + "loss": 0.0839, + "step": 3450 + }, + { + "epoch": 5.766666666666667, + "grad_norm": 0.5260627865791321, + "learning_rate": 1.4635906222806058e-05, + "loss": 0.1391, + "step": 3460 + }, + { + "epoch": 5.783333333333333, + "grad_norm": 0.3091002404689789, + "learning_rate": 1.4599046107566314e-05, + "loss": 0.2284, + "step": 3470 + }, + { + "epoch": 5.8, + "grad_norm": 25.41762924194336, + "learning_rate": 1.4562106573531632e-05, + "loss": 0.2418, + "step": 3480 + }, + { + "epoch": 5.816666666666666, + "grad_norm": 8.183185577392578, + "learning_rate": 1.4525088258593695e-05, + "loss": 0.2818, + "step": 3490 + }, + { + "epoch": 5.833333333333333, + "grad_norm": 8.167861938476562, + "learning_rate": 1.4487991802004625e-05, + "loss": 0.2096, + "step": 3500 + }, + { + "epoch": 5.85, + "grad_norm": 1.1373860836029053, + "learning_rate": 1.4450817844365924e-05, + "loss": 0.1648, + "step": 3510 + }, + { + "epoch": 5.866666666666667, + "grad_norm": 18.7924861907959, + "learning_rate": 1.4413567027617442e-05, + "loss": 0.1077, + "step": 3520 + }, + { + "epoch": 5.883333333333333, + "grad_norm": 43.12092971801758, + "learning_rate": 1.4376239995026254e-05, + "loss": 0.1099, + "step": 3530 + }, + { + "epoch": 5.9, + "grad_norm": 36.30341720581055, + "learning_rate": 1.4338837391175582e-05, + "loss": 0.0979, + "step": 3540 + }, + { + "epoch": 5.916666666666667, + "grad_norm": 9.352974891662598, + "learning_rate": 1.4301359861953652e-05, + "loss": 0.1578, + "step": 3550 + }, + { + "epoch": 5.933333333333334, + "grad_norm": 3.1973745822906494, + "learning_rate": 1.4263808054542541e-05, + "loss": 0.1587, + "step": 3560 + }, + { + "epoch": 5.95, + "grad_norm": 20.190561294555664, + "learning_rate": 1.4226182617406996e-05, + "loss": 0.1586, + "step": 3570 + }, + { + "epoch": 5.966666666666667, + "grad_norm": 24.63654327392578, + "learning_rate": 1.418848420028325e-05, + "loss": 0.0922, + "step": 3580 + }, + { + "epoch": 5.983333333333333, + "grad_norm": 27.1915225982666, + "learning_rate": 1.4150713454167788e-05, + "loss": 0.2448, + "step": 3590 + }, + { + "epoch": 6.0, + "grad_norm": 2.4420948028564453, + "learning_rate": 1.4112871031306118e-05, + "loss": 0.1722, + "step": 3600 + }, + { + "epoch": 6.0, + "eval_accuracy": 0.6336996336996337, + "eval_loss": 1.5674309730529785, + "eval_runtime": 1.9561, + "eval_samples_per_second": 697.811, + "eval_steps_per_second": 43.965, + "step": 3600 + }, + { + "epoch": 6.016666666666667, + "grad_norm": 2.7956202030181885, + "learning_rate": 1.4074957585181488e-05, + "loss": 0.0886, + "step": 3610 + }, + { + "epoch": 6.033333333333333, + "grad_norm": 0.37907764315605164, + "learning_rate": 1.4036973770503623e-05, + "loss": 0.0597, + "step": 3620 + }, + { + "epoch": 6.05, + "grad_norm": 5.614625930786133, + "learning_rate": 1.3998920243197408e-05, + "loss": 0.0832, + "step": 3630 + }, + { + "epoch": 6.066666666666666, + "grad_norm": 0.19984441995620728, + "learning_rate": 1.396079766039157e-05, + "loss": 0.0445, + "step": 3640 + }, + { + "epoch": 6.083333333333333, + "grad_norm": 3.4363865852355957, + "learning_rate": 1.3922606680407307e-05, + "loss": 0.0436, + "step": 3650 + }, + { + "epoch": 6.1, + "grad_norm": 10.151202201843262, + "learning_rate": 1.3884347962746949e-05, + "loss": 0.0801, + "step": 3660 + }, + { + "epoch": 6.116666666666666, + "grad_norm": 4.335551738739014, + "learning_rate": 1.3846022168082553e-05, + "loss": 0.2556, + "step": 3670 + }, + { + "epoch": 6.133333333333334, + "grad_norm": 32.38202667236328, + "learning_rate": 1.3807629958244498e-05, + "loss": 0.0734, + "step": 3680 + }, + { + "epoch": 6.15, + "grad_norm": 0.9993119835853577, + "learning_rate": 1.3769171996210053e-05, + "loss": 0.0508, + "step": 3690 + }, + { + "epoch": 6.166666666666667, + "grad_norm": 14.930900573730469, + "learning_rate": 1.373064894609194e-05, + "loss": 0.1259, + "step": 3700 + }, + { + "epoch": 6.183333333333334, + "grad_norm": 0.06836142390966415, + "learning_rate": 1.3692061473126845e-05, + "loss": 0.1129, + "step": 3710 + }, + { + "epoch": 6.2, + "grad_norm": 36.90699005126953, + "learning_rate": 1.3653410243663953e-05, + "loss": 0.0942, + "step": 3720 + }, + { + "epoch": 6.216666666666667, + "grad_norm": 1.2870429754257202, + "learning_rate": 1.361469592515342e-05, + "loss": 0.0856, + "step": 3730 + }, + { + "epoch": 6.233333333333333, + "grad_norm": 21.09489631652832, + "learning_rate": 1.3575919186134862e-05, + "loss": 0.1176, + "step": 3740 + }, + { + "epoch": 6.25, + "grad_norm": 19.593664169311523, + "learning_rate": 1.3537080696225815e-05, + "loss": 0.0861, + "step": 3750 + }, + { + "epoch": 6.266666666666667, + "grad_norm": 5.173015594482422, + "learning_rate": 1.349818112611015e-05, + "loss": 0.1912, + "step": 3760 + }, + { + "epoch": 6.283333333333333, + "grad_norm": 0.2996021509170532, + "learning_rate": 1.3459221147526504e-05, + "loss": 0.0818, + "step": 3770 + }, + { + "epoch": 6.3, + "grad_norm": 27.303770065307617, + "learning_rate": 1.342020143325669e-05, + "loss": 0.0249, + "step": 3780 + }, + { + "epoch": 6.316666666666666, + "grad_norm": 0.49486374855041504, + "learning_rate": 1.3381122657114059e-05, + "loss": 0.0622, + "step": 3790 + }, + { + "epoch": 6.333333333333333, + "grad_norm": 2.8161256313323975, + "learning_rate": 1.3341985493931877e-05, + "loss": 0.2356, + "step": 3800 + }, + { + "epoch": 6.35, + "grad_norm": 0.050575144588947296, + "learning_rate": 1.3302790619551673e-05, + "loss": 0.0724, + "step": 3810 + }, + { + "epoch": 6.366666666666666, + "grad_norm": 0.10276170074939728, + "learning_rate": 1.3263538710811559e-05, + "loss": 0.0366, + "step": 3820 + }, + { + "epoch": 6.383333333333334, + "grad_norm": 44.04489517211914, + "learning_rate": 1.3224230445534544e-05, + "loss": 0.1344, + "step": 3830 + }, + { + "epoch": 6.4, + "grad_norm": 14.379541397094727, + "learning_rate": 1.3184866502516846e-05, + "loss": 0.1865, + "step": 3840 + }, + { + "epoch": 6.416666666666667, + "grad_norm": 0.12741892039775848, + "learning_rate": 1.3145447561516138e-05, + "loss": 0.0663, + "step": 3850 + }, + { + "epoch": 6.433333333333334, + "grad_norm": 3.2561116218566895, + "learning_rate": 1.3105974303239838e-05, + "loss": 0.1107, + "step": 3860 + }, + { + "epoch": 6.45, + "grad_norm": 2.7047250270843506, + "learning_rate": 1.3066447409333345e-05, + "loss": 0.0871, + "step": 3870 + }, + { + "epoch": 6.466666666666667, + "grad_norm": 22.090036392211914, + "learning_rate": 1.3026867562368262e-05, + "loss": 0.0339, + "step": 3880 + }, + { + "epoch": 6.483333333333333, + "grad_norm": 16.041553497314453, + "learning_rate": 1.2987235445830612e-05, + "loss": 0.1337, + "step": 3890 + }, + { + "epoch": 6.5, + "grad_norm": 15.934035301208496, + "learning_rate": 1.2947551744109044e-05, + "loss": 0.0988, + "step": 3900 + }, + { + "epoch": 6.516666666666667, + "grad_norm": 0.12512661516666412, + "learning_rate": 1.2907817142483002e-05, + "loss": 0.0507, + "step": 3910 + }, + { + "epoch": 6.533333333333333, + "grad_norm": 0.8212718367576599, + "learning_rate": 1.2868032327110904e-05, + "loss": 0.0697, + "step": 3920 + }, + { + "epoch": 6.55, + "grad_norm": 49.31973648071289, + "learning_rate": 1.2828197985018276e-05, + "loss": 0.0341, + "step": 3930 + }, + { + "epoch": 6.566666666666666, + "grad_norm": 5.994250297546387, + "learning_rate": 1.2788314804085904e-05, + "loss": 0.0876, + "step": 3940 + }, + { + "epoch": 6.583333333333333, + "grad_norm": 0.28034791350364685, + "learning_rate": 1.2748383473037948e-05, + "loss": 0.1736, + "step": 3950 + }, + { + "epoch": 6.6, + "grad_norm": 9.517563819885254, + "learning_rate": 1.2708404681430054e-05, + "loss": 0.0938, + "step": 3960 + }, + { + "epoch": 6.616666666666667, + "grad_norm": 0.8875794410705566, + "learning_rate": 1.266837911963743e-05, + "loss": 0.1409, + "step": 3970 + }, + { + "epoch": 6.633333333333333, + "grad_norm": 13.758536338806152, + "learning_rate": 1.2628307478842955e-05, + "loss": 0.161, + "step": 3980 + }, + { + "epoch": 6.65, + "grad_norm": 0.685119092464447, + "learning_rate": 1.2588190451025209e-05, + "loss": 0.0927, + "step": 3990 + }, + { + "epoch": 6.666666666666667, + "grad_norm": 9.26745319366455, + "learning_rate": 1.2548028728946548e-05, + "loss": 0.2317, + "step": 4000 + }, + { + "epoch": 6.683333333333334, + "grad_norm": 0.41291195154190063, + "learning_rate": 1.2507823006141128e-05, + "loss": 0.0975, + "step": 4010 + }, + { + "epoch": 6.7, + "grad_norm": 31.908096313476562, + "learning_rate": 1.2467573976902936e-05, + "loss": 0.1475, + "step": 4020 + }, + { + "epoch": 6.716666666666667, + "grad_norm": 1.9993367195129395, + "learning_rate": 1.24272823362738e-05, + "loss": 0.1265, + "step": 4030 + }, + { + "epoch": 6.733333333333333, + "grad_norm": 0.32419532537460327, + "learning_rate": 1.238694878003138e-05, + "loss": 0.0779, + "step": 4040 + }, + { + "epoch": 6.75, + "grad_norm": 0.8238071203231812, + "learning_rate": 1.2346574004677154e-05, + "loss": 0.1067, + "step": 4050 + }, + { + "epoch": 6.766666666666667, + "grad_norm": 60.266483306884766, + "learning_rate": 1.2306158707424402e-05, + "loss": 0.1401, + "step": 4060 + }, + { + "epoch": 6.783333333333333, + "grad_norm": 3.0764288902282715, + "learning_rate": 1.2265703586186158e-05, + "loss": 0.0847, + "step": 4070 + }, + { + "epoch": 6.8, + "grad_norm": 44.34507751464844, + "learning_rate": 1.2225209339563144e-05, + "loss": 0.1783, + "step": 4080 + }, + { + "epoch": 6.816666666666666, + "grad_norm": 7.701195240020752, + "learning_rate": 1.2184676666831741e-05, + "loss": 0.2235, + "step": 4090 + }, + { + "epoch": 6.833333333333333, + "grad_norm": 22.504344940185547, + "learning_rate": 1.2144106267931877e-05, + "loss": 0.141, + "step": 4100 + }, + { + "epoch": 6.85, + "grad_norm": 19.971139907836914, + "learning_rate": 1.210349884345496e-05, + "loss": 0.2359, + "step": 4110 + }, + { + "epoch": 6.866666666666667, + "grad_norm": 15.64979362487793, + "learning_rate": 1.2062855094631777e-05, + "loss": 0.1019, + "step": 4120 + }, + { + "epoch": 6.883333333333333, + "grad_norm": 18.649150848388672, + "learning_rate": 1.2022175723320382e-05, + "loss": 0.0806, + "step": 4130 + }, + { + "epoch": 6.9, + "grad_norm": 12.660820960998535, + "learning_rate": 1.1981461431993978e-05, + "loss": 0.1066, + "step": 4140 + }, + { + "epoch": 6.916666666666667, + "grad_norm": 27.603178024291992, + "learning_rate": 1.1940712923728784e-05, + "loss": 0.1701, + "step": 4150 + }, + { + "epoch": 6.933333333333334, + "grad_norm": 14.351332664489746, + "learning_rate": 1.1899930902191904e-05, + "loss": 0.0951, + "step": 4160 + }, + { + "epoch": 6.95, + "grad_norm": 0.23754386603832245, + "learning_rate": 1.1859116071629148e-05, + "loss": 0.1334, + "step": 4170 + }, + { + "epoch": 6.966666666666667, + "grad_norm": 15.504202842712402, + "learning_rate": 1.181826913685291e-05, + "loss": 0.1684, + "step": 4180 + }, + { + "epoch": 6.983333333333333, + "grad_norm": 3.2268130779266357, + "learning_rate": 1.1777390803229964e-05, + "loss": 0.1206, + "step": 4190 + }, + { + "epoch": 7.0, + "grad_norm": 15.195246696472168, + "learning_rate": 1.1736481776669307e-05, + "loss": 0.0643, + "step": 4200 + }, + { + "epoch": 7.0, + "eval_accuracy": 0.6366300366300366, + "eval_loss": 1.8222845792770386, + "eval_runtime": 2.4299, + "eval_samples_per_second": 561.742, + "eval_steps_per_second": 35.392, + "step": 4200 + }, + { + "epoch": 7.016666666666667, + "grad_norm": 3.1184213161468506, + "learning_rate": 1.1695542763609944e-05, + "loss": 0.0434, + "step": 4210 + }, + { + "epoch": 7.033333333333333, + "grad_norm": 7.201974868774414, + "learning_rate": 1.1654574471008712e-05, + "loss": 0.0079, + "step": 4220 + }, + { + "epoch": 7.05, + "grad_norm": 3.9969992637634277, + "learning_rate": 1.1613577606328068e-05, + "loss": 0.113, + "step": 4230 + }, + { + "epoch": 7.066666666666666, + "grad_norm": 0.36156192421913147, + "learning_rate": 1.1572552877523855e-05, + "loss": 0.0531, + "step": 4240 + }, + { + "epoch": 7.083333333333333, + "grad_norm": 3.436892032623291, + "learning_rate": 1.1531500993033094e-05, + "loss": 0.0311, + "step": 4250 + }, + { + "epoch": 7.1, + "grad_norm": 0.3816102147102356, + "learning_rate": 1.1490422661761744e-05, + "loss": 0.0684, + "step": 4260 + }, + { + "epoch": 7.116666666666666, + "grad_norm": 1.731108546257019, + "learning_rate": 1.1449318593072468e-05, + "loss": 0.0526, + "step": 4270 + }, + { + "epoch": 7.133333333333334, + "grad_norm": 42.39308547973633, + "learning_rate": 1.1408189496772369e-05, + "loss": 0.0688, + "step": 4280 + }, + { + "epoch": 7.15, + "grad_norm": 2.614971160888672, + "learning_rate": 1.1367036083100735e-05, + "loss": 0.0998, + "step": 4290 + }, + { + "epoch": 7.166666666666667, + "grad_norm": 0.032221995294094086, + "learning_rate": 1.1325859062716795e-05, + "loss": 0.0068, + "step": 4300 + }, + { + "epoch": 7.183333333333334, + "grad_norm": 0.026208536699414253, + "learning_rate": 1.1284659146687416e-05, + "loss": 0.1411, + "step": 4310 + }, + { + "epoch": 7.2, + "grad_norm": 15.706056594848633, + "learning_rate": 1.1243437046474854e-05, + "loss": 0.0609, + "step": 4320 + }, + { + "epoch": 7.216666666666667, + "grad_norm": 43.92604064941406, + "learning_rate": 1.120219347392444e-05, + "loss": 0.1201, + "step": 4330 + }, + { + "epoch": 7.233333333333333, + "grad_norm": 3.1085469722747803, + "learning_rate": 1.1160929141252303e-05, + "loss": 0.0502, + "step": 4340 + }, + { + "epoch": 7.25, + "grad_norm": 0.1720058023929596, + "learning_rate": 1.1119644761033079e-05, + "loss": 0.0695, + "step": 4350 + }, + { + "epoch": 7.266666666666667, + "grad_norm": 62.54095458984375, + "learning_rate": 1.1078341046187588e-05, + "loss": 0.084, + "step": 4360 + }, + { + "epoch": 7.283333333333333, + "grad_norm": 0.06810988485813141, + "learning_rate": 1.1037018709970528e-05, + "loss": 0.0311, + "step": 4370 + }, + { + "epoch": 7.3, + "grad_norm": 20.363981246948242, + "learning_rate": 1.0995678465958168e-05, + "loss": 0.0434, + "step": 4380 + }, + { + "epoch": 7.316666666666666, + "grad_norm": 0.0323542058467865, + "learning_rate": 1.0954321028036013e-05, + "loss": 0.0534, + "step": 4390 + }, + { + "epoch": 7.333333333333333, + "grad_norm": 0.07076967507600784, + "learning_rate": 1.0912947110386484e-05, + "loss": 0.0603, + "step": 4400 + }, + { + "epoch": 7.35, + "grad_norm": 0.7574355006217957, + "learning_rate": 1.0871557427476585e-05, + "loss": 0.0859, + "step": 4410 + }, + { + "epoch": 7.366666666666666, + "grad_norm": 3.641155958175659, + "learning_rate": 1.0830152694045553e-05, + "loss": 0.1094, + "step": 4420 + }, + { + "epoch": 7.383333333333334, + "grad_norm": 0.17219914495944977, + "learning_rate": 1.078873362509254e-05, + "loss": 0.0779, + "step": 4430 + }, + { + "epoch": 7.4, + "grad_norm": 0.03016113117337227, + "learning_rate": 1.0747300935864245e-05, + "loss": 0.0344, + "step": 4440 + }, + { + "epoch": 7.416666666666667, + "grad_norm": 0.3405592441558838, + "learning_rate": 1.0705855341842564e-05, + "loss": 0.0863, + "step": 4450 + }, + { + "epoch": 7.433333333333334, + "grad_norm": 0.026357417926192284, + "learning_rate": 1.0664397558732245e-05, + "loss": 0.0873, + "step": 4460 + }, + { + "epoch": 7.45, + "grad_norm": 13.986675262451172, + "learning_rate": 1.0622928302448523e-05, + "loss": 0.0984, + "step": 4470 + }, + { + "epoch": 7.466666666666667, + "grad_norm": 0.05464504286646843, + "learning_rate": 1.0581448289104759e-05, + "loss": 0.0332, + "step": 4480 + }, + { + "epoch": 7.483333333333333, + "grad_norm": 43.4432373046875, + "learning_rate": 1.0539958235000075e-05, + "loss": 0.0659, + "step": 4490 + }, + { + "epoch": 7.5, + "grad_norm": 29.609643936157227, + "learning_rate": 1.0498458856606972e-05, + "loss": 0.1271, + "step": 4500 + }, + { + "epoch": 7.516666666666667, + "grad_norm": 0.08658182621002197, + "learning_rate": 1.0456950870558982e-05, + "loss": 0.0496, + "step": 4510 + }, + { + "epoch": 7.533333333333333, + "grad_norm": 0.4856656789779663, + "learning_rate": 1.0415434993638269e-05, + "loss": 0.056, + "step": 4520 + }, + { + "epoch": 7.55, + "grad_norm": 54.464481353759766, + "learning_rate": 1.037391194276326e-05, + "loss": 0.1164, + "step": 4530 + }, + { + "epoch": 7.566666666666666, + "grad_norm": 0.028596431016921997, + "learning_rate": 1.0332382434976267e-05, + "loss": 0.1338, + "step": 4540 + }, + { + "epoch": 7.583333333333333, + "grad_norm": 0.47550636529922485, + "learning_rate": 1.0290847187431115e-05, + "loss": 0.0099, + "step": 4550 + }, + { + "epoch": 7.6, + "grad_norm": 0.024133695289492607, + "learning_rate": 1.0249306917380731e-05, + "loss": 0.0478, + "step": 4560 + }, + { + "epoch": 7.616666666666667, + "grad_norm": 0.15692509710788727, + "learning_rate": 1.0207762342164778e-05, + "loss": 0.027, + "step": 4570 + }, + { + "epoch": 7.633333333333333, + "grad_norm": 25.491106033325195, + "learning_rate": 1.0166214179197265e-05, + "loss": 0.0313, + "step": 4580 + }, + { + "epoch": 7.65, + "grad_norm": 0.8982044458389282, + "learning_rate": 1.0124663145954152e-05, + "loss": 0.0284, + "step": 4590 + }, + { + "epoch": 7.666666666666667, + "grad_norm": 0.4735371470451355, + "learning_rate": 1.0083109959960974e-05, + "loss": 0.0569, + "step": 4600 + }, + { + "epoch": 7.683333333333334, + "grad_norm": 0.14562205970287323, + "learning_rate": 1.0041555338780427e-05, + "loss": 0.1106, + "step": 4610 + }, + { + "epoch": 7.7, + "grad_norm": 36.13142013549805, + "learning_rate": 1e-05, + "loss": 0.0461, + "step": 4620 + }, + { + "epoch": 7.716666666666667, + "grad_norm": 69.17588806152344, + "learning_rate": 9.958444661219578e-06, + "loss": 0.1307, + "step": 4630 + }, + { + "epoch": 7.733333333333333, + "grad_norm": 23.862674713134766, + "learning_rate": 9.916890040039031e-06, + "loss": 0.1613, + "step": 4640 + }, + { + "epoch": 7.75, + "grad_norm": 13.202719688415527, + "learning_rate": 9.87533685404585e-06, + "loss": 0.1349, + "step": 4650 + }, + { + "epoch": 7.766666666666667, + "grad_norm": 0.12848487496376038, + "learning_rate": 9.833785820802739e-06, + "loss": 0.0125, + "step": 4660 + }, + { + "epoch": 7.783333333333333, + "grad_norm": 0.026713097468018532, + "learning_rate": 9.792237657835225e-06, + "loss": 0.137, + "step": 4670 + }, + { + "epoch": 7.8, + "grad_norm": 0.09598132967948914, + "learning_rate": 9.750693082619274e-06, + "loss": 0.0479, + "step": 4680 + }, + { + "epoch": 7.816666666666666, + "grad_norm": 55.45012283325195, + "learning_rate": 9.709152812568886e-06, + "loss": 0.0105, + "step": 4690 + }, + { + "epoch": 7.833333333333333, + "grad_norm": 1.960809588432312, + "learning_rate": 9.667617565023734e-06, + "loss": 0.1331, + "step": 4700 + }, + { + "epoch": 7.85, + "grad_norm": 0.05195235088467598, + "learning_rate": 9.626088057236745e-06, + "loss": 0.0732, + "step": 4710 + }, + { + "epoch": 7.866666666666667, + "grad_norm": 0.07702606171369553, + "learning_rate": 9.584565006361735e-06, + "loss": 0.086, + "step": 4720 + }, + { + "epoch": 7.883333333333333, + "grad_norm": 62.13239669799805, + "learning_rate": 9.543049129441021e-06, + "loss": 0.0593, + "step": 4730 + }, + { + "epoch": 7.9, + "grad_norm": 3.229891777038574, + "learning_rate": 9.501541143393028e-06, + "loss": 0.0753, + "step": 4740 + }, + { + "epoch": 7.916666666666667, + "grad_norm": 10.668651580810547, + "learning_rate": 9.460041764999929e-06, + "loss": 0.1537, + "step": 4750 + }, + { + "epoch": 7.933333333333334, + "grad_norm": 6.874297618865967, + "learning_rate": 9.418551710895243e-06, + "loss": 0.0911, + "step": 4760 + }, + { + "epoch": 7.95, + "grad_norm": 0.8538333177566528, + "learning_rate": 9.377071697551479e-06, + "loss": 0.0291, + "step": 4770 + }, + { + "epoch": 7.966666666666667, + "grad_norm": 0.22471383213996887, + "learning_rate": 9.33560244126776e-06, + "loss": 0.0661, + "step": 4780 + }, + { + "epoch": 7.983333333333333, + "grad_norm": 1.8405463695526123, + "learning_rate": 9.294144658157443e-06, + "loss": 0.0653, + "step": 4790 + }, + { + "epoch": 8.0, + "grad_norm": 0.3498668968677521, + "learning_rate": 9.252699064135759e-06, + "loss": 0.0639, + "step": 4800 + }, + { + "epoch": 8.0, + "eval_accuracy": 0.6241758241758242, + "eval_loss": 2.287038803100586, + "eval_runtime": 2.006, + "eval_samples_per_second": 680.459, + "eval_steps_per_second": 42.871, + "step": 4800 + }, + { + "epoch": 8.016666666666667, + "grad_norm": 12.221203804016113, + "learning_rate": 9.211266374907463e-06, + "loss": 0.0407, + "step": 4810 + }, + { + "epoch": 8.033333333333333, + "grad_norm": 0.09653156995773315, + "learning_rate": 9.169847305954448e-06, + "loss": 0.0146, + "step": 4820 + }, + { + "epoch": 8.05, + "grad_norm": 0.0653880164027214, + "learning_rate": 9.128442572523418e-06, + "loss": 0.0522, + "step": 4830 + }, + { + "epoch": 8.066666666666666, + "grad_norm": 0.018451673910021782, + "learning_rate": 9.087052889613519e-06, + "loss": 0.0198, + "step": 4840 + }, + { + "epoch": 8.083333333333334, + "grad_norm": 2.7249293327331543, + "learning_rate": 9.045678971963988e-06, + "loss": 0.0574, + "step": 4850 + }, + { + "epoch": 8.1, + "grad_norm": 0.03191056102514267, + "learning_rate": 9.004321534041836e-06, + "loss": 0.0537, + "step": 4860 + }, + { + "epoch": 8.116666666666667, + "grad_norm": 8.838760375976562, + "learning_rate": 8.962981290029475e-06, + "loss": 0.0149, + "step": 4870 + }, + { + "epoch": 8.133333333333333, + "grad_norm": 11.203906059265137, + "learning_rate": 8.921658953812416e-06, + "loss": 0.0043, + "step": 4880 + }, + { + "epoch": 8.15, + "grad_norm": 0.10002117604017258, + "learning_rate": 8.880355238966923e-06, + "loss": 0.0325, + "step": 4890 + }, + { + "epoch": 8.166666666666666, + "grad_norm": 0.47016626596450806, + "learning_rate": 8.839070858747697e-06, + "loss": 0.0665, + "step": 4900 + }, + { + "epoch": 8.183333333333334, + "grad_norm": 2.427482843399048, + "learning_rate": 8.797806526075566e-06, + "loss": 0.0488, + "step": 4910 + }, + { + "epoch": 8.2, + "grad_norm": 0.014250639826059341, + "learning_rate": 8.756562953525151e-06, + "loss": 0.0366, + "step": 4920 + }, + { + "epoch": 8.216666666666667, + "grad_norm": 1.8263099193572998, + "learning_rate": 8.715340853312586e-06, + "loss": 0.0301, + "step": 4930 + }, + { + "epoch": 8.233333333333333, + "grad_norm": 0.20052829384803772, + "learning_rate": 8.674140937283208e-06, + "loss": 0.0266, + "step": 4940 + }, + { + "epoch": 8.25, + "grad_norm": 0.4661940634250641, + "learning_rate": 8.632963916899268e-06, + "loss": 0.0016, + "step": 4950 + }, + { + "epoch": 8.266666666666667, + "grad_norm": 0.3336583971977234, + "learning_rate": 8.591810503227634e-06, + "loss": 0.0199, + "step": 4960 + }, + { + "epoch": 8.283333333333333, + "grad_norm": 3.7666029930114746, + "learning_rate": 8.550681406927534e-06, + "loss": 0.0372, + "step": 4970 + }, + { + "epoch": 8.3, + "grad_norm": 0.23303212225437164, + "learning_rate": 8.509577338238255e-06, + "loss": 0.027, + "step": 4980 + }, + { + "epoch": 8.316666666666666, + "grad_norm": 0.04906190559267998, + "learning_rate": 8.46849900696691e-06, + "loss": 0.1621, + "step": 4990 + }, + { + "epoch": 8.333333333333334, + "grad_norm": 0.6690149307250977, + "learning_rate": 8.427447122476148e-06, + "loss": 0.0588, + "step": 5000 + }, + { + "epoch": 8.35, + "grad_norm": 0.030395809561014175, + "learning_rate": 8.386422393671934e-06, + "loss": 0.0011, + "step": 5010 + }, + { + "epoch": 8.366666666666667, + "grad_norm": 0.0137130506336689, + "learning_rate": 8.34542552899129e-06, + "loss": 0.0248, + "step": 5020 + }, + { + "epoch": 8.383333333333333, + "grad_norm": 0.03623773530125618, + "learning_rate": 8.304457236390062e-06, + "loss": 0.0368, + "step": 5030 + }, + { + "epoch": 8.4, + "grad_norm": 28.148099899291992, + "learning_rate": 8.263518223330698e-06, + "loss": 0.0481, + "step": 5040 + }, + { + "epoch": 8.416666666666666, + "grad_norm": 3.5140609741210938, + "learning_rate": 8.222609196770037e-06, + "loss": 0.0232, + "step": 5050 + }, + { + "epoch": 8.433333333333334, + "grad_norm": 15.2373685836792, + "learning_rate": 8.181730863147094e-06, + "loss": 0.0238, + "step": 5060 + }, + { + "epoch": 8.45, + "grad_norm": 0.0257254671305418, + "learning_rate": 8.140883928370855e-06, + "loss": 0.0333, + "step": 5070 + }, + { + "epoch": 8.466666666666667, + "grad_norm": 0.08491776883602142, + "learning_rate": 8.100069097808103e-06, + "loss": 0.0413, + "step": 5080 + }, + { + "epoch": 8.483333333333333, + "grad_norm": 39.21556091308594, + "learning_rate": 8.059287076271216e-06, + "loss": 0.1001, + "step": 5090 + }, + { + "epoch": 8.5, + "grad_norm": 0.017393160611391068, + "learning_rate": 8.018538568006027e-06, + "loss": 0.0025, + "step": 5100 + }, + { + "epoch": 8.516666666666667, + "grad_norm": 16.39540672302246, + "learning_rate": 7.977824276679623e-06, + "loss": 0.0528, + "step": 5110 + }, + { + "epoch": 8.533333333333333, + "grad_norm": 0.015073513612151146, + "learning_rate": 7.937144905368226e-06, + "loss": 0.1109, + "step": 5120 + }, + { + "epoch": 8.55, + "grad_norm": 0.05708052217960358, + "learning_rate": 7.896501156545044e-06, + "loss": 0.0332, + "step": 5130 + }, + { + "epoch": 8.566666666666666, + "grad_norm": 0.027908623218536377, + "learning_rate": 7.855893732068124e-06, + "loss": 0.0926, + "step": 5140 + }, + { + "epoch": 8.583333333333334, + "grad_norm": 23.559062957763672, + "learning_rate": 7.815323333168262e-06, + "loss": 0.012, + "step": 5150 + }, + { + "epoch": 8.6, + "grad_norm": 0.9111537933349609, + "learning_rate": 7.774790660436857e-06, + "loss": 0.0219, + "step": 5160 + }, + { + "epoch": 8.616666666666667, + "grad_norm": 0.03302312642335892, + "learning_rate": 7.734296413813847e-06, + "loss": 0.0792, + "step": 5170 + }, + { + "epoch": 8.633333333333333, + "grad_norm": 14.167460441589355, + "learning_rate": 7.6938412925756e-06, + "loss": 0.0331, + "step": 5180 + }, + { + "epoch": 8.65, + "grad_norm": 0.27443990111351013, + "learning_rate": 7.653425995322852e-06, + "loss": 0.0517, + "step": 5190 + }, + { + "epoch": 8.666666666666666, + "grad_norm": 2.8816311359405518, + "learning_rate": 7.613051219968624e-06, + "loss": 0.0758, + "step": 5200 + }, + { + "epoch": 8.683333333333334, + "grad_norm": 0.015650594606995583, + "learning_rate": 7.5727176637262034e-06, + "loss": 0.0803, + "step": 5210 + }, + { + "epoch": 8.7, + "grad_norm": 0.02484651654958725, + "learning_rate": 7.532426023097063e-06, + "loss": 0.0583, + "step": 5220 + }, + { + "epoch": 8.716666666666667, + "grad_norm": 78.51082611083984, + "learning_rate": 7.492176993858873e-06, + "loss": 0.1146, + "step": 5230 + }, + { + "epoch": 8.733333333333333, + "grad_norm": 1.1751972436904907, + "learning_rate": 7.451971271053455e-06, + "loss": 0.0537, + "step": 5240 + }, + { + "epoch": 8.75, + "grad_norm": 2.047635793685913, + "learning_rate": 7.411809548974792e-06, + "loss": 0.1589, + "step": 5250 + }, + { + "epoch": 8.766666666666667, + "grad_norm": 20.830856323242188, + "learning_rate": 7.371692521157048e-06, + "loss": 0.1046, + "step": 5260 + }, + { + "epoch": 8.783333333333333, + "grad_norm": 50.50537109375, + "learning_rate": 7.331620880362571e-06, + "loss": 0.017, + "step": 5270 + }, + { + "epoch": 8.8, + "grad_norm": 14.005181312561035, + "learning_rate": 7.291595318569951e-06, + "loss": 0.131, + "step": 5280 + }, + { + "epoch": 8.816666666666666, + "grad_norm": 0.017126847058534622, + "learning_rate": 7.2516165269620534e-06, + "loss": 0.0394, + "step": 5290 + }, + { + "epoch": 8.833333333333334, + "grad_norm": 11.570549964904785, + "learning_rate": 7.2116851959140965e-06, + "loss": 0.0167, + "step": 5300 + }, + { + "epoch": 8.85, + "grad_norm": 60.751495361328125, + "learning_rate": 7.171802014981726e-06, + "loss": 0.1043, + "step": 5310 + }, + { + "epoch": 8.866666666666667, + "grad_norm": 14.370758056640625, + "learning_rate": 7.131967672889101e-06, + "loss": 0.037, + "step": 5320 + }, + { + "epoch": 8.883333333333333, + "grad_norm": 0.042631592601537704, + "learning_rate": 7.092182857516998e-06, + "loss": 0.0825, + "step": 5330 + }, + { + "epoch": 8.9, + "grad_norm": 18.05477523803711, + "learning_rate": 7.052448255890958e-06, + "loss": 0.0753, + "step": 5340 + }, + { + "epoch": 8.916666666666666, + "grad_norm": 0.08995214104652405, + "learning_rate": 7.012764554169393e-06, + "loss": 0.0639, + "step": 5350 + }, + { + "epoch": 8.933333333333334, + "grad_norm": 0.4663775861263275, + "learning_rate": 6.973132437631743e-06, + "loss": 0.0017, + "step": 5360 + }, + { + "epoch": 8.95, + "grad_norm": 0.013071997091174126, + "learning_rate": 6.933552590666659e-06, + "loss": 0.041, + "step": 5370 + }, + { + "epoch": 8.966666666666667, + "grad_norm": 0.024483798071742058, + "learning_rate": 6.8940256967601625e-06, + "loss": 0.0705, + "step": 5380 + }, + { + "epoch": 8.983333333333333, + "grad_norm": 0.05324419215321541, + "learning_rate": 6.854552438483866e-06, + "loss": 0.0902, + "step": 5390 + }, + { + "epoch": 9.0, + "grad_norm": 0.010217195376753807, + "learning_rate": 6.815133497483157e-06, + "loss": 0.0161, + "step": 5400 + }, + { + "epoch": 9.0, + "eval_accuracy": 0.6256410256410256, + "eval_loss": 2.376491069793701, + "eval_runtime": 1.984, + "eval_samples_per_second": 687.989, + "eval_steps_per_second": 43.346, + "step": 5400 + }, + { + "epoch": 9.016666666666667, + "grad_norm": 0.04304489493370056, + "learning_rate": 6.775769554465455e-06, + "loss": 0.0052, + "step": 5410 + }, + { + "epoch": 9.033333333333333, + "grad_norm": 0.04578486457467079, + "learning_rate": 6.736461289188445e-06, + "loss": 0.0161, + "step": 5420 + }, + { + "epoch": 9.05, + "grad_norm": 0.020307594910264015, + "learning_rate": 6.697209380448333e-06, + "loss": 0.0023, + "step": 5430 + }, + { + "epoch": 9.066666666666666, + "grad_norm": 0.06639733165502548, + "learning_rate": 6.6580145060681255e-06, + "loss": 0.0079, + "step": 5440 + }, + { + "epoch": 9.083333333333334, + "grad_norm": 0.005567920859903097, + "learning_rate": 6.618877342885945e-06, + "loss": 0.0014, + "step": 5450 + }, + { + "epoch": 9.1, + "grad_norm": 0.007131638005375862, + "learning_rate": 6.579798566743314e-06, + "loss": 0.0034, + "step": 5460 + }, + { + "epoch": 9.116666666666667, + "grad_norm": 157.75733947753906, + "learning_rate": 6.540778852473497e-06, + "loss": 0.0641, + "step": 5470 + }, + { + "epoch": 9.133333333333333, + "grad_norm": 0.32051143050193787, + "learning_rate": 6.501818873889856e-06, + "loss": 0.0628, + "step": 5480 + }, + { + "epoch": 9.15, + "grad_norm": 0.012005547992885113, + "learning_rate": 6.462919303774186e-06, + "loss": 0.0496, + "step": 5490 + }, + { + "epoch": 9.166666666666666, + "grad_norm": 0.09318733960390091, + "learning_rate": 6.424080813865139e-06, + "loss": 0.0184, + "step": 5500 + }, + { + "epoch": 9.183333333333334, + "grad_norm": 0.03979954123497009, + "learning_rate": 6.3853040748465855e-06, + "loss": 0.0235, + "step": 5510 + }, + { + "epoch": 9.2, + "grad_norm": 20.619905471801758, + "learning_rate": 6.34658975633605e-06, + "loss": 0.0842, + "step": 5520 + }, + { + "epoch": 9.216666666666667, + "grad_norm": 65.93218994140625, + "learning_rate": 6.3079385268731575e-06, + "loss": 0.0727, + "step": 5530 + }, + { + "epoch": 9.233333333333333, + "grad_norm": 4.460343837738037, + "learning_rate": 6.269351053908061e-06, + "loss": 0.0541, + "step": 5540 + }, + { + "epoch": 9.25, + "grad_norm": 0.09803818166255951, + "learning_rate": 6.230828003789949e-06, + "loss": 0.0009, + "step": 5550 + }, + { + "epoch": 9.266666666666667, + "grad_norm": 0.0428694486618042, + "learning_rate": 6.192370041755505e-06, + "loss": 0.0812, + "step": 5560 + }, + { + "epoch": 9.283333333333333, + "grad_norm": 0.028728744015097618, + "learning_rate": 6.153977831917451e-06, + "loss": 0.0042, + "step": 5570 + }, + { + "epoch": 9.3, + "grad_norm": 0.3407820761203766, + "learning_rate": 6.115652037253054e-06, + "loss": 0.0018, + "step": 5580 + }, + { + "epoch": 9.316666666666666, + "grad_norm": 0.024533122777938843, + "learning_rate": 6.077393319592697e-06, + "loss": 0.0774, + "step": 5590 + }, + { + "epoch": 9.333333333333334, + "grad_norm": 0.5175767540931702, + "learning_rate": 6.039202339608432e-06, + "loss": 0.0779, + "step": 5600 + }, + { + "epoch": 9.35, + "grad_norm": 0.017414189875125885, + "learning_rate": 6.001079756802592e-06, + "loss": 0.0018, + "step": 5610 + }, + { + "epoch": 9.366666666666667, + "grad_norm": 0.018383994698524475, + "learning_rate": 5.963026229496378e-06, + "loss": 0.0032, + "step": 5620 + }, + { + "epoch": 9.383333333333333, + "grad_norm": 1.9100221395492554, + "learning_rate": 5.925042414818514e-06, + "loss": 0.0719, + "step": 5630 + }, + { + "epoch": 9.4, + "grad_norm": 0.014550582505762577, + "learning_rate": 5.887128968693887e-06, + "loss": 0.0198, + "step": 5640 + }, + { + "epoch": 9.416666666666666, + "grad_norm": 0.008884880691766739, + "learning_rate": 5.849286545832211e-06, + "loss": 0.0496, + "step": 5650 + }, + { + "epoch": 9.433333333333334, + "grad_norm": 0.025510238483548164, + "learning_rate": 5.811515799716754e-06, + "loss": 0.0285, + "step": 5660 + }, + { + "epoch": 9.45, + "grad_norm": 0.029813693836331367, + "learning_rate": 5.773817382593008e-06, + "loss": 0.0229, + "step": 5670 + }, + { + "epoch": 9.466666666666667, + "grad_norm": 0.0077801719307899475, + "learning_rate": 5.736191945457463e-06, + "loss": 0.1094, + "step": 5680 + }, + { + "epoch": 9.483333333333333, + "grad_norm": 0.21113517880439758, + "learning_rate": 5.698640138046349e-06, + "loss": 0.0182, + "step": 5690 + }, + { + "epoch": 9.5, + "grad_norm": 0.011576608754694462, + "learning_rate": 5.66116260882442e-06, + "loss": 0.057, + "step": 5700 + }, + { + "epoch": 9.516666666666667, + "grad_norm": 0.2033030092716217, + "learning_rate": 5.623760004973749e-06, + "loss": 0.0734, + "step": 5710 + }, + { + "epoch": 9.533333333333333, + "grad_norm": 0.022775832563638687, + "learning_rate": 5.586432972382561e-06, + "loss": 0.0235, + "step": 5720 + }, + { + "epoch": 9.55, + "grad_norm": 0.011610534973442554, + "learning_rate": 5.549182155634076e-06, + "loss": 0.0016, + "step": 5730 + }, + { + "epoch": 9.566666666666666, + "grad_norm": 102.03386688232422, + "learning_rate": 5.512008197995379e-06, + "loss": 0.0602, + "step": 5740 + }, + { + "epoch": 9.583333333333334, + "grad_norm": 13.98901081085205, + "learning_rate": 5.47491174140631e-06, + "loss": 0.0295, + "step": 5750 + }, + { + "epoch": 9.6, + "grad_norm": 0.09368708729743958, + "learning_rate": 5.43789342646837e-06, + "loss": 0.0117, + "step": 5760 + }, + { + "epoch": 9.616666666666667, + "grad_norm": 0.011298476718366146, + "learning_rate": 5.4009538924336864e-06, + "loss": 0.0007, + "step": 5770 + }, + { + "epoch": 9.633333333333333, + "grad_norm": 25.619182586669922, + "learning_rate": 5.364093777193944e-06, + "loss": 0.0335, + "step": 5780 + }, + { + "epoch": 9.65, + "grad_norm": 0.013145272620022297, + "learning_rate": 5.32731371726938e-06, + "loss": 0.0305, + "step": 5790 + }, + { + "epoch": 9.666666666666666, + "grad_norm": 0.033255018293857574, + "learning_rate": 5.290614347797802e-06, + "loss": 0.0347, + "step": 5800 + }, + { + "epoch": 9.683333333333334, + "grad_norm": 0.021136023104190826, + "learning_rate": 5.253996302523596e-06, + "loss": 0.0417, + "step": 5810 + }, + { + "epoch": 9.7, + "grad_norm": 0.01828765496611595, + "learning_rate": 5.217460213786822e-06, + "loss": 0.0008, + "step": 5820 + }, + { + "epoch": 9.716666666666667, + "grad_norm": 0.021525239571928978, + "learning_rate": 5.181006712512245e-06, + "loss": 0.0043, + "step": 5830 + }, + { + "epoch": 9.733333333333333, + "grad_norm": 49.80839157104492, + "learning_rate": 5.144636428198477e-06, + "loss": 0.1559, + "step": 5840 + }, + { + "epoch": 9.75, + "grad_norm": 20.633182525634766, + "learning_rate": 5.108349988907111e-06, + "loss": 0.0062, + "step": 5850 + }, + { + "epoch": 9.766666666666667, + "grad_norm": 0.006064248271286488, + "learning_rate": 5.072148021251822e-06, + "loss": 0.0723, + "step": 5860 + }, + { + "epoch": 9.783333333333333, + "grad_norm": 0.15177957713603973, + "learning_rate": 5.036031150387624e-06, + "loss": 0.0679, + "step": 5870 + }, + { + "epoch": 9.8, + "grad_norm": 67.9042739868164, + "learning_rate": 5.000000000000003e-06, + "loss": 0.013, + "step": 5880 + }, + { + "epoch": 9.816666666666666, + "grad_norm": 0.08752978593111038, + "learning_rate": 4.964055192294187e-06, + "loss": 0.0052, + "step": 5890 + }, + { + "epoch": 9.833333333333334, + "grad_norm": 1.5333389043807983, + "learning_rate": 4.92819734798441e-06, + "loss": 0.0049, + "step": 5900 + }, + { + "epoch": 9.85, + "grad_norm": 0.015482067130506039, + "learning_rate": 4.892427086283147e-06, + "loss": 0.0067, + "step": 5910 + }, + { + "epoch": 9.866666666666667, + "grad_norm": 0.05730535835027695, + "learning_rate": 4.856745024890466e-06, + "loss": 0.0397, + "step": 5920 + }, + { + "epoch": 9.883333333333333, + "grad_norm": 14.22793960571289, + "learning_rate": 4.821151779983343e-06, + "loss": 0.0653, + "step": 5930 + }, + { + "epoch": 9.9, + "grad_norm": 0.6677501201629639, + "learning_rate": 4.78564796620502e-06, + "loss": 0.0014, + "step": 5940 + }, + { + "epoch": 9.916666666666666, + "grad_norm": 0.007463044486939907, + "learning_rate": 4.7502341966544e-06, + "loss": 0.0139, + "step": 5950 + }, + { + "epoch": 9.933333333333334, + "grad_norm": 0.01207564864307642, + "learning_rate": 4.714911082875446e-06, + "loss": 0.0171, + "step": 5960 + }, + { + "epoch": 9.95, + "grad_norm": 0.21874092519283295, + "learning_rate": 4.679679234846636e-06, + "loss": 0.0025, + "step": 5970 + }, + { + "epoch": 9.966666666666667, + "grad_norm": 0.6054325103759766, + "learning_rate": 4.644539260970417e-06, + "loss": 0.0825, + "step": 5980 + }, + { + "epoch": 9.983333333333333, + "grad_norm": 0.026162736117839813, + "learning_rate": 4.609491768062705e-06, + "loss": 0.0319, + "step": 5990 + }, + { + "epoch": 10.0, + "grad_norm": 0.02407621219754219, + "learning_rate": 4.5745373613424075e-06, + "loss": 0.0128, + "step": 6000 + }, + { + "epoch": 10.0, + "eval_accuracy": 0.6366300366300366, + "eval_loss": 2.5328738689422607, + "eval_runtime": 1.9365, + "eval_samples_per_second": 704.886, + "eval_steps_per_second": 44.41, + "step": 6000 + }, + { + "epoch": 10.016666666666667, + "grad_norm": 2.5848894119262695, + "learning_rate": 4.539676644420966e-06, + "loss": 0.0066, + "step": 6010 + }, + { + "epoch": 10.033333333333333, + "grad_norm": 164.14398193359375, + "learning_rate": 4.504910219291941e-06, + "loss": 0.0391, + "step": 6020 + }, + { + "epoch": 10.05, + "grad_norm": 0.004672689363360405, + "learning_rate": 4.470238686320606e-06, + "loss": 0.0425, + "step": 6030 + }, + { + "epoch": 10.066666666666666, + "grad_norm": 0.015739306807518005, + "learning_rate": 4.435662644233594e-06, + "loss": 0.0844, + "step": 6040 + }, + { + "epoch": 10.083333333333334, + "grad_norm": 0.28408434987068176, + "learning_rate": 4.4011826901085346e-06, + "loss": 0.0047, + "step": 6050 + }, + { + "epoch": 10.1, + "grad_norm": 0.792030394077301, + "learning_rate": 4.3667994193637794e-06, + "loss": 0.1337, + "step": 6060 + }, + { + "epoch": 10.116666666666667, + "grad_norm": 0.016146106645464897, + "learning_rate": 4.3325134257480905e-06, + "loss": 0.0012, + "step": 6070 + }, + { + "epoch": 10.133333333333333, + "grad_norm": 0.004173349589109421, + "learning_rate": 4.298325301330383e-06, + "loss": 0.0915, + "step": 6080 + }, + { + "epoch": 10.15, + "grad_norm": 0.3737195134162903, + "learning_rate": 4.264235636489542e-06, + "loss": 0.0012, + "step": 6090 + }, + { + "epoch": 10.166666666666666, + "grad_norm": 0.03490012139081955, + "learning_rate": 4.23024501990417e-06, + "loss": 0.005, + "step": 6100 + }, + { + "epoch": 10.183333333333334, + "grad_norm": 0.07963980734348297, + "learning_rate": 4.196354038542476e-06, + "loss": 0.0192, + "step": 6110 + }, + { + "epoch": 10.2, + "grad_norm": 0.005616281647235155, + "learning_rate": 4.162563277652104e-06, + "loss": 0.0597, + "step": 6120 + }, + { + "epoch": 10.216666666666667, + "grad_norm": 1.6034228801727295, + "learning_rate": 4.128873320750027e-06, + "loss": 0.0021, + "step": 6130 + }, + { + "epoch": 10.233333333333333, + "grad_norm": 0.026460707187652588, + "learning_rate": 4.095284749612504e-06, + "loss": 0.0011, + "step": 6140 + }, + { + "epoch": 10.25, + "grad_norm": 0.00982896238565445, + "learning_rate": 4.061798144264986e-06, + "loss": 0.0225, + "step": 6150 + }, + { + "epoch": 10.266666666666667, + "grad_norm": 0.0047401911579072475, + "learning_rate": 4.028414082972141e-06, + "loss": 0.0125, + "step": 6160 + }, + { + "epoch": 10.283333333333333, + "grad_norm": 39.154083251953125, + "learning_rate": 3.995133142227843e-06, + "loss": 0.0107, + "step": 6170 + }, + { + "epoch": 10.3, + "grad_norm": 0.2048110067844391, + "learning_rate": 3.961955896745224e-06, + "loss": 0.0045, + "step": 6180 + }, + { + "epoch": 10.316666666666666, + "grad_norm": 0.054925791919231415, + "learning_rate": 3.928882919446767e-06, + "loss": 0.0121, + "step": 6190 + }, + { + "epoch": 10.333333333333334, + "grad_norm": 6.554659366607666, + "learning_rate": 3.89591478145437e-06, + "loss": 0.0681, + "step": 6200 + }, + { + "epoch": 10.35, + "grad_norm": 0.02309197373688221, + "learning_rate": 3.8630520520795275e-06, + "loss": 0.0901, + "step": 6210 + }, + { + "epoch": 10.366666666666667, + "grad_norm": 0.12893272936344147, + "learning_rate": 3.830295298813475e-06, + "loss": 0.035, + "step": 6220 + }, + { + "epoch": 10.383333333333333, + "grad_norm": 0.009439480490982533, + "learning_rate": 3.797645087317401e-06, + "loss": 0.0081, + "step": 6230 + }, + { + "epoch": 10.4, + "grad_norm": 0.009158750995993614, + "learning_rate": 3.7651019814126656e-06, + "loss": 0.0614, + "step": 6240 + }, + { + "epoch": 10.416666666666666, + "grad_norm": 0.15298189222812653, + "learning_rate": 3.7326665430710798e-06, + "loss": 0.005, + "step": 6250 + }, + { + "epoch": 10.433333333333334, + "grad_norm": 0.005107731092721224, + "learning_rate": 3.7003393324051874e-06, + "loss": 0.0331, + "step": 6260 + }, + { + "epoch": 10.45, + "grad_norm": 14.306778907775879, + "learning_rate": 3.6681209076586035e-06, + "loss": 0.028, + "step": 6270 + }, + { + "epoch": 10.466666666666667, + "grad_norm": 0.14541669189929962, + "learning_rate": 3.636011825196365e-06, + "loss": 0.0005, + "step": 6280 + }, + { + "epoch": 10.483333333333333, + "grad_norm": 0.08900494128465652, + "learning_rate": 3.6040126394953334e-06, + "loss": 0.0216, + "step": 6290 + }, + { + "epoch": 10.5, + "grad_norm": 2.911168336868286, + "learning_rate": 3.5721239031346067e-06, + "loss": 0.068, + "step": 6300 + }, + { + "epoch": 10.516666666666667, + "grad_norm": 0.011473206803202629, + "learning_rate": 3.540346166785994e-06, + "loss": 0.046, + "step": 6310 + }, + { + "epoch": 10.533333333333333, + "grad_norm": 0.013163376599550247, + "learning_rate": 3.5086799792044812e-06, + "loss": 0.0145, + "step": 6320 + }, + { + "epoch": 10.55, + "grad_norm": 0.033820025622844696, + "learning_rate": 3.4771258872187917e-06, + "loss": 0.0419, + "step": 6330 + }, + { + "epoch": 10.566666666666666, + "grad_norm": 0.05051262304186821, + "learning_rate": 3.4456844357218977e-06, + "loss": 0.0176, + "step": 6340 + }, + { + "epoch": 10.583333333333334, + "grad_norm": 4.920490741729736, + "learning_rate": 3.414356167661658e-06, + "loss": 0.0447, + "step": 6350 + }, + { + "epoch": 10.6, + "grad_norm": 0.1240825355052948, + "learning_rate": 3.3831416240314085e-06, + "loss": 0.0213, + "step": 6360 + }, + { + "epoch": 10.616666666666667, + "grad_norm": 0.004741927608847618, + "learning_rate": 3.3520413438606215e-06, + "loss": 0.0198, + "step": 6370 + }, + { + "epoch": 10.633333333333333, + "grad_norm": 0.7797335982322693, + "learning_rate": 3.3210558642056277e-06, + "loss": 0.0121, + "step": 6380 + }, + { + "epoch": 10.65, + "grad_norm": 0.13754583895206451, + "learning_rate": 3.290185720140301e-06, + "loss": 0.0692, + "step": 6390 + }, + { + "epoch": 10.666666666666666, + "grad_norm": 0.046297337859869, + "learning_rate": 3.2594314447468457e-06, + "loss": 0.0214, + "step": 6400 + }, + { + "epoch": 10.683333333333334, + "grad_norm": 0.9988303780555725, + "learning_rate": 3.228793569106594e-06, + "loss": 0.0644, + "step": 6410 + }, + { + "epoch": 10.7, + "grad_norm": 40.29999923706055, + "learning_rate": 3.1982726222908046e-06, + "loss": 0.0564, + "step": 6420 + }, + { + "epoch": 10.716666666666667, + "grad_norm": 0.005441838409751654, + "learning_rate": 3.1678691313515688e-06, + "loss": 0.0054, + "step": 6430 + }, + { + "epoch": 10.733333333333333, + "grad_norm": 0.08924850821495056, + "learning_rate": 3.1375836213126653e-06, + "loss": 0.0137, + "step": 6440 + }, + { + "epoch": 10.75, + "grad_norm": 0.30186939239501953, + "learning_rate": 3.10741661516053e-06, + "loss": 0.0064, + "step": 6450 + }, + { + "epoch": 10.766666666666667, + "grad_norm": 0.10808040201663971, + "learning_rate": 3.077368633835205e-06, + "loss": 0.0017, + "step": 6460 + }, + { + "epoch": 10.783333333333333, + "grad_norm": 2.806311845779419, + "learning_rate": 3.0474401962213483e-06, + "loss": 0.0017, + "step": 6470 + }, + { + "epoch": 10.8, + "grad_norm": 0.5742372274398804, + "learning_rate": 3.017631819139273e-06, + "loss": 0.0035, + "step": 6480 + }, + { + "epoch": 10.816666666666666, + "grad_norm": 0.027512436732649803, + "learning_rate": 2.987944017336023e-06, + "loss": 0.0139, + "step": 6490 + }, + { + "epoch": 10.833333333333334, + "grad_norm": 0.0474701002240181, + "learning_rate": 2.958377303476483e-06, + "loss": 0.0317, + "step": 6500 + }, + { + "epoch": 10.85, + "grad_norm": 6.042050838470459, + "learning_rate": 2.9289321881345257e-06, + "loss": 0.0055, + "step": 6510 + }, + { + "epoch": 10.866666666666667, + "grad_norm": 1.1392112970352173, + "learning_rate": 2.8996091797841976e-06, + "loss": 0.0393, + "step": 6520 + }, + { + "epoch": 10.883333333333333, + "grad_norm": 0.004693117458373308, + "learning_rate": 2.8704087847909333e-06, + "loss": 0.0004, + "step": 6530 + }, + { + "epoch": 10.9, + "grad_norm": 0.3389260470867157, + "learning_rate": 2.8413315074028157e-06, + "loss": 0.0193, + "step": 6540 + }, + { + "epoch": 10.916666666666666, + "grad_norm": 0.12661051750183105, + "learning_rate": 2.8123778497418687e-06, + "loss": 0.0196, + "step": 6550 + }, + { + "epoch": 10.933333333333334, + "grad_norm": 0.2787809371948242, + "learning_rate": 2.783548311795379e-06, + "loss": 0.0487, + "step": 6560 + }, + { + "epoch": 10.95, + "grad_norm": 0.08719979971647263, + "learning_rate": 2.7548433914072736e-06, + "loss": 0.0553, + "step": 6570 + }, + { + "epoch": 10.966666666666667, + "grad_norm": 0.03355100005865097, + "learning_rate": 2.726263584269513e-06, + "loss": 0.0035, + "step": 6580 + }, + { + "epoch": 10.983333333333333, + "grad_norm": 0.020008157938718796, + "learning_rate": 2.6978093839135365e-06, + "loss": 0.0577, + "step": 6590 + }, + { + "epoch": 11.0, + "grad_norm": 0.049677930772304535, + "learning_rate": 2.669481281701739e-06, + "loss": 0.0164, + "step": 6600 + }, + { + "epoch": 11.0, + "eval_accuracy": 0.6293040293040293, + "eval_loss": 2.6321825981140137, + "eval_runtime": 1.9472, + "eval_samples_per_second": 700.994, + "eval_steps_per_second": 44.165, + "step": 6600 + }, + { + "epoch": 11.016666666666667, + "grad_norm": 0.02977852337062359, + "learning_rate": 2.641279766818977e-06, + "loss": 0.0003, + "step": 6610 + }, + { + "epoch": 11.033333333333333, + "grad_norm": 0.011167909018695354, + "learning_rate": 2.6132053262641467e-06, + "loss": 0.022, + "step": 6620 + }, + { + "epoch": 11.05, + "grad_norm": 2.918816328048706, + "learning_rate": 2.5852584448417327e-06, + "loss": 0.0009, + "step": 6630 + }, + { + "epoch": 11.066666666666666, + "grad_norm": 0.013001427054405212, + "learning_rate": 2.5574396051534835e-06, + "loss": 0.0126, + "step": 6640 + }, + { + "epoch": 11.083333333333334, + "grad_norm": 3.934358596801758, + "learning_rate": 2.529749287590042e-06, + "loss": 0.0657, + "step": 6650 + }, + { + "epoch": 11.1, + "grad_norm": 0.016156084835529327, + "learning_rate": 2.502187970322657e-06, + "loss": 0.093, + "step": 6660 + }, + { + "epoch": 11.116666666666667, + "grad_norm": 0.10527543723583221, + "learning_rate": 2.4747561292949496e-06, + "loss": 0.0102, + "step": 6670 + }, + { + "epoch": 11.133333333333333, + "grad_norm": 0.01703232154250145, + "learning_rate": 2.447454238214654e-06, + "loss": 0.0003, + "step": 6680 + }, + { + "epoch": 11.15, + "grad_norm": 0.029103636741638184, + "learning_rate": 2.420282768545469e-06, + "loss": 0.0038, + "step": 6690 + }, + { + "epoch": 11.166666666666666, + "grad_norm": 0.015173720195889473, + "learning_rate": 2.3932421894989167e-06, + "loss": 0.0313, + "step": 6700 + }, + { + "epoch": 11.183333333333334, + "grad_norm": 0.022922033444046974, + "learning_rate": 2.366332968026207e-06, + "loss": 0.0466, + "step": 6710 + }, + { + "epoch": 11.2, + "grad_norm": 1.8661198616027832, + "learning_rate": 2.339555568810221e-06, + "loss": 0.0129, + "step": 6720 + }, + { + "epoch": 11.216666666666667, + "grad_norm": 0.015827415511012077, + "learning_rate": 2.3129104542574433e-06, + "loss": 0.0035, + "step": 6730 + }, + { + "epoch": 11.233333333333333, + "grad_norm": 0.04141826927661896, + "learning_rate": 2.2863980844900036e-06, + "loss": 0.0393, + "step": 6740 + }, + { + "epoch": 11.25, + "grad_norm": 0.008678029291331768, + "learning_rate": 2.2600189173377263e-06, + "loss": 0.0012, + "step": 6750 + }, + { + "epoch": 11.266666666666667, + "grad_norm": 0.0064391172491014, + "learning_rate": 2.2337734083302164e-06, + "loss": 0.0504, + "step": 6760 + }, + { + "epoch": 11.283333333333333, + "grad_norm": 0.053652215749025345, + "learning_rate": 2.207662010689002e-06, + "loss": 0.0005, + "step": 6770 + }, + { + "epoch": 11.3, + "grad_norm": 77.94811248779297, + "learning_rate": 2.1816851753197023e-06, + "loss": 0.0425, + "step": 6780 + }, + { + "epoch": 11.316666666666666, + "grad_norm": 0.018824616447091103, + "learning_rate": 2.155843350804243e-06, + "loss": 0.0014, + "step": 6790 + }, + { + "epoch": 11.333333333333334, + "grad_norm": 24.755586624145508, + "learning_rate": 2.130136983393112e-06, + "loss": 0.0116, + "step": 6800 + }, + { + "epoch": 11.35, + "grad_norm": 0.6925886869430542, + "learning_rate": 2.104566516997647e-06, + "loss": 0.0049, + "step": 6810 + }, + { + "epoch": 11.366666666666667, + "grad_norm": 2.041292190551758, + "learning_rate": 2.0791323931823783e-06, + "loss": 0.0544, + "step": 6820 + }, + { + "epoch": 11.383333333333333, + "grad_norm": 0.009696914814412594, + "learning_rate": 2.053835051157397e-06, + "loss": 0.0189, + "step": 6830 + }, + { + "epoch": 11.4, + "grad_norm": 0.5942186117172241, + "learning_rate": 2.0286749277707783e-06, + "loss": 0.0181, + "step": 6840 + }, + { + "epoch": 11.416666666666666, + "grad_norm": 0.038010694086551666, + "learning_rate": 2.0036524575010176e-06, + "loss": 0.1053, + "step": 6850 + }, + { + "epoch": 11.433333333333334, + "grad_norm": 0.0037780546117573977, + "learning_rate": 1.9787680724495617e-06, + "loss": 0.0295, + "step": 6860 + }, + { + "epoch": 11.45, + "grad_norm": 0.0093591483309865, + "learning_rate": 1.9540222023333165e-06, + "loss": 0.0004, + "step": 6870 + }, + { + "epoch": 11.466666666666667, + "grad_norm": 0.36084067821502686, + "learning_rate": 1.929415274477239e-06, + "loss": 0.0375, + "step": 6880 + }, + { + "epoch": 11.483333333333333, + "grad_norm": 0.07602624595165253, + "learning_rate": 1.9049477138069606e-06, + "loss": 0.0027, + "step": 6890 + }, + { + "epoch": 11.5, + "grad_norm": 0.0053289649076759815, + "learning_rate": 1.880619942841435e-06, + "loss": 0.0003, + "step": 6900 + }, + { + "epoch": 11.516666666666667, + "grad_norm": 0.06744978576898575, + "learning_rate": 1.856432381685669e-06, + "loss": 0.0115, + "step": 6910 + }, + { + "epoch": 11.533333333333333, + "grad_norm": 0.006499492563307285, + "learning_rate": 1.8323854480234348e-06, + "loss": 0.0004, + "step": 6920 + }, + { + "epoch": 11.55, + "grad_norm": 0.012737682089209557, + "learning_rate": 1.808479557110081e-06, + "loss": 0.0147, + "step": 6930 + }, + { + "epoch": 11.566666666666666, + "grad_norm": 11.834685325622559, + "learning_rate": 1.7847151217653624e-06, + "loss": 0.0125, + "step": 6940 + }, + { + "epoch": 11.583333333333334, + "grad_norm": 0.019163092598319054, + "learning_rate": 1.7610925523662836e-06, + "loss": 0.0538, + "step": 6950 + }, + { + "epoch": 11.6, + "grad_norm": 1.9256852865219116, + "learning_rate": 1.7376122568400533e-06, + "loss": 0.0032, + "step": 6960 + }, + { + "epoch": 11.616666666666667, + "grad_norm": 0.0039183590561151505, + "learning_rate": 1.714274640657001e-06, + "loss": 0.008, + "step": 6970 + }, + { + "epoch": 11.633333333333333, + "grad_norm": 0.02196461521089077, + "learning_rate": 1.6910801068236015e-06, + "loss": 0.003, + "step": 6980 + }, + { + "epoch": 11.65, + "grad_norm": 0.006805905140936375, + "learning_rate": 1.6680290558755119e-06, + "loss": 0.0336, + "step": 6990 + }, + { + "epoch": 11.666666666666666, + "grad_norm": 0.09496167302131653, + "learning_rate": 1.6451218858706374e-06, + "loss": 0.0206, + "step": 7000 + }, + { + "epoch": 11.683333333333334, + "grad_norm": 0.015263626351952553, + "learning_rate": 1.6223589923822768e-06, + "loss": 0.0382, + "step": 7010 + }, + { + "epoch": 11.7, + "grad_norm": 0.005197111517190933, + "learning_rate": 1.599740768492286e-06, + "loss": 0.0002, + "step": 7020 + }, + { + "epoch": 11.716666666666667, + "grad_norm": 0.027239451184868813, + "learning_rate": 1.5772676047842862e-06, + "loss": 0.0025, + "step": 7030 + }, + { + "epoch": 11.733333333333333, + "grad_norm": 0.36813682317733765, + "learning_rate": 1.5549398893369216e-06, + "loss": 0.0017, + "step": 7040 + }, + { + "epoch": 11.75, + "grad_norm": 0.006986125838011503, + "learning_rate": 1.5327580077171589e-06, + "loss": 0.0394, + "step": 7050 + }, + { + "epoch": 11.766666666666667, + "grad_norm": 0.07977800071239471, + "learning_rate": 1.5107223429736273e-06, + "loss": 0.051, + "step": 7060 + }, + { + "epoch": 11.783333333333333, + "grad_norm": 0.0035156458616256714, + "learning_rate": 1.4888332756300027e-06, + "loss": 0.0006, + "step": 7070 + }, + { + "epoch": 11.8, + "grad_norm": 0.5690571069717407, + "learning_rate": 1.467091183678444e-06, + "loss": 0.0012, + "step": 7080 + }, + { + "epoch": 11.816666666666666, + "grad_norm": 0.00904709193855524, + "learning_rate": 1.4454964425730533e-06, + "loss": 0.0318, + "step": 7090 + }, + { + "epoch": 11.833333333333334, + "grad_norm": 0.033793073147535324, + "learning_rate": 1.424049425223405e-06, + "loss": 0.0013, + "step": 7100 + }, + { + "epoch": 11.85, + "grad_norm": 1.5678539276123047, + "learning_rate": 1.4027505019880972e-06, + "loss": 0.0462, + "step": 7110 + }, + { + "epoch": 11.866666666666667, + "grad_norm": 0.006125775631517172, + "learning_rate": 1.3816000406683604e-06, + "loss": 0.0389, + "step": 7120 + }, + { + "epoch": 11.883333333333333, + "grad_norm": 0.005812865681946278, + "learning_rate": 1.3605984065017074e-06, + "loss": 0.0187, + "step": 7130 + }, + { + "epoch": 11.9, + "grad_norm": 0.03303861618041992, + "learning_rate": 1.339745962155613e-06, + "loss": 0.0011, + "step": 7140 + }, + { + "epoch": 11.916666666666666, + "grad_norm": 0.08446267992258072, + "learning_rate": 1.3190430677212795e-06, + "loss": 0.0006, + "step": 7150 + }, + { + "epoch": 11.933333333333334, + "grad_norm": 77.23758697509766, + "learning_rate": 1.2984900807073919e-06, + "loss": 0.1209, + "step": 7160 + }, + { + "epoch": 11.95, + "grad_norm": 0.011724837124347687, + "learning_rate": 1.278087356033947e-06, + "loss": 0.0149, + "step": 7170 + }, + { + "epoch": 11.966666666666667, + "grad_norm": 0.017768416553735733, + "learning_rate": 1.2578352460261456e-06, + "loss": 0.0028, + "step": 7180 + }, + { + "epoch": 11.983333333333333, + "grad_norm": 0.022292958572506905, + "learning_rate": 1.2377341004082778e-06, + "loss": 0.0003, + "step": 7190 + }, + { + "epoch": 12.0, + "grad_norm": 6.165916442871094, + "learning_rate": 1.2177842662977136e-06, + "loss": 0.0162, + "step": 7200 + }, + { + "epoch": 12.0, + "eval_accuracy": 0.6293040293040293, + "eval_loss": 2.6758413314819336, + "eval_runtime": 2.0091, + "eval_samples_per_second": 679.41, + "eval_steps_per_second": 42.805, + "step": 7200 + } + ], + "logging_steps": 10, + "max_steps": 8400, + "num_input_tokens_seen": 0, + "num_train_epochs": 14, + "save_steps": 500, + "stateful_callbacks": { + "EarlyStoppingCallback": { + "args": { + "early_stopping_patience": 9, + "early_stopping_threshold": 0.0 + }, + "attributes": { + "early_stopping_patience_counter": 9 + } + }, + "TrainerControl": { + "args": { + "should_epoch_stop": false, + "should_evaluate": false, + "should_log": false, + "should_save": true, + "should_training_stop": true + }, + "attributes": {} + } + }, + "total_flos": 3814663679096832.0, + "train_batch_size": 16, + "trial_name": null, + "trial_params": null +}