grahamaco's picture
Add trained complexity classifier
7e0ad08 verified
{
"best_metric": 0.663003663003663,
"best_model_checkpoint": "/home/grahama/workspace/experiments/complexity/model/checkpoint-1800",
"epoch": 3.0,
"eval_steps": 500,
"global_step": 1800,
"is_hyper_param_search": false,
"is_local_process_zero": true,
"is_world_process_zero": true,
"log_history": [
{
"epoch": 0.016666666666666666,
"grad_norm": 2.3482773303985596,
"learning_rate": 2.3809523809523811e-07,
"loss": 0.7019,
"step": 10
},
{
"epoch": 0.03333333333333333,
"grad_norm": 1.3639864921569824,
"learning_rate": 4.7619047619047623e-07,
"loss": 0.7018,
"step": 20
},
{
"epoch": 0.05,
"grad_norm": 2.9051921367645264,
"learning_rate": 7.142857142857143e-07,
"loss": 0.7151,
"step": 30
},
{
"epoch": 0.06666666666666667,
"grad_norm": 1.0235440731048584,
"learning_rate": 9.523809523809525e-07,
"loss": 0.7034,
"step": 40
},
{
"epoch": 0.08333333333333333,
"grad_norm": 2.771768808364868,
"learning_rate": 1.1904761904761906e-06,
"loss": 0.7006,
"step": 50
},
{
"epoch": 0.1,
"grad_norm": 1.2305303812026978,
"learning_rate": 1.4285714285714286e-06,
"loss": 0.6995,
"step": 60
},
{
"epoch": 0.11666666666666667,
"grad_norm": 2.2383503913879395,
"learning_rate": 1.6666666666666667e-06,
"loss": 0.6994,
"step": 70
},
{
"epoch": 0.13333333333333333,
"grad_norm": 1.0624160766601562,
"learning_rate": 1.904761904761905e-06,
"loss": 0.6998,
"step": 80
},
{
"epoch": 0.15,
"grad_norm": 1.2018228769302368,
"learning_rate": 2.1428571428571427e-06,
"loss": 0.6974,
"step": 90
},
{
"epoch": 0.16666666666666666,
"grad_norm": 1.0849791765213013,
"learning_rate": 2.380952380952381e-06,
"loss": 0.6875,
"step": 100
},
{
"epoch": 0.18333333333333332,
"grad_norm": 1.291517972946167,
"learning_rate": 2.6190476190476192e-06,
"loss": 0.6865,
"step": 110
},
{
"epoch": 0.2,
"grad_norm": 1.056863784790039,
"learning_rate": 2.8571428571428573e-06,
"loss": 0.6829,
"step": 120
},
{
"epoch": 0.21666666666666667,
"grad_norm": 2.968041181564331,
"learning_rate": 3.0952380952380957e-06,
"loss": 0.6696,
"step": 130
},
{
"epoch": 0.23333333333333334,
"grad_norm": 1.055704116821289,
"learning_rate": 3.3333333333333333e-06,
"loss": 0.6783,
"step": 140
},
{
"epoch": 0.25,
"grad_norm": 1.6586881875991821,
"learning_rate": 3.5714285714285718e-06,
"loss": 0.6702,
"step": 150
},
{
"epoch": 0.26666666666666666,
"grad_norm": 2.3964574337005615,
"learning_rate": 3.80952380952381e-06,
"loss": 0.709,
"step": 160
},
{
"epoch": 0.2833333333333333,
"grad_norm": 1.0744259357452393,
"learning_rate": 4.047619047619048e-06,
"loss": 0.7022,
"step": 170
},
{
"epoch": 0.3,
"grad_norm": 1.071405053138733,
"learning_rate": 4.2857142857142855e-06,
"loss": 0.6747,
"step": 180
},
{
"epoch": 0.31666666666666665,
"grad_norm": 2.1431033611297607,
"learning_rate": 4.523809523809524e-06,
"loss": 0.6623,
"step": 190
},
{
"epoch": 0.3333333333333333,
"grad_norm": 1.301439881324768,
"learning_rate": 4.761904761904762e-06,
"loss": 0.667,
"step": 200
},
{
"epoch": 0.35,
"grad_norm": 1.5243868827819824,
"learning_rate": 5e-06,
"loss": 0.6584,
"step": 210
},
{
"epoch": 0.36666666666666664,
"grad_norm": 1.2769250869750977,
"learning_rate": 5.2380952380952384e-06,
"loss": 0.6898,
"step": 220
},
{
"epoch": 0.38333333333333336,
"grad_norm": 1.274899959564209,
"learning_rate": 5.476190476190477e-06,
"loss": 0.6995,
"step": 230
},
{
"epoch": 0.4,
"grad_norm": 1.658318281173706,
"learning_rate": 5.7142857142857145e-06,
"loss": 0.6705,
"step": 240
},
{
"epoch": 0.4166666666666667,
"grad_norm": 2.4139277935028076,
"learning_rate": 5.9523809523809525e-06,
"loss": 0.6849,
"step": 250
},
{
"epoch": 0.43333333333333335,
"grad_norm": 1.5813899040222168,
"learning_rate": 6.1904761904761914e-06,
"loss": 0.6663,
"step": 260
},
{
"epoch": 0.45,
"grad_norm": 1.4048871994018555,
"learning_rate": 6.4285714285714295e-06,
"loss": 0.6542,
"step": 270
},
{
"epoch": 0.4666666666666667,
"grad_norm": 1.7416518926620483,
"learning_rate": 6.666666666666667e-06,
"loss": 0.6793,
"step": 280
},
{
"epoch": 0.48333333333333334,
"grad_norm": 1.7340086698532104,
"learning_rate": 6.9047619047619055e-06,
"loss": 0.6681,
"step": 290
},
{
"epoch": 0.5,
"grad_norm": 1.4946725368499756,
"learning_rate": 7.1428571428571436e-06,
"loss": 0.6758,
"step": 300
},
{
"epoch": 0.5166666666666667,
"grad_norm": 1.9904041290283203,
"learning_rate": 7.380952380952382e-06,
"loss": 0.6432,
"step": 310
},
{
"epoch": 0.5333333333333333,
"grad_norm": 2.4469521045684814,
"learning_rate": 7.61904761904762e-06,
"loss": 0.6688,
"step": 320
},
{
"epoch": 0.55,
"grad_norm": 2.104259967803955,
"learning_rate": 7.857142857142858e-06,
"loss": 0.6312,
"step": 330
},
{
"epoch": 0.5666666666666667,
"grad_norm": 2.125582218170166,
"learning_rate": 8.095238095238097e-06,
"loss": 0.6712,
"step": 340
},
{
"epoch": 0.5833333333333334,
"grad_norm": 1.9155024290084839,
"learning_rate": 8.333333333333334e-06,
"loss": 0.6766,
"step": 350
},
{
"epoch": 0.6,
"grad_norm": 3.6578118801116943,
"learning_rate": 8.571428571428571e-06,
"loss": 0.6561,
"step": 360
},
{
"epoch": 0.6166666666666667,
"grad_norm": 2.083104133605957,
"learning_rate": 8.80952380952381e-06,
"loss": 0.6374,
"step": 370
},
{
"epoch": 0.6333333333333333,
"grad_norm": 4.414960861206055,
"learning_rate": 9.047619047619049e-06,
"loss": 0.6512,
"step": 380
},
{
"epoch": 0.65,
"grad_norm": 2.075925588607788,
"learning_rate": 9.285714285714288e-06,
"loss": 0.6316,
"step": 390
},
{
"epoch": 0.6666666666666666,
"grad_norm": 3.132584571838379,
"learning_rate": 9.523809523809525e-06,
"loss": 0.6424,
"step": 400
},
{
"epoch": 0.6833333333333333,
"grad_norm": 2.2723052501678467,
"learning_rate": 9.761904761904762e-06,
"loss": 0.6395,
"step": 410
},
{
"epoch": 0.7,
"grad_norm": 4.37326192855835,
"learning_rate": 1e-05,
"loss": 0.6519,
"step": 420
},
{
"epoch": 0.7166666666666667,
"grad_norm": 3.2006280422210693,
"learning_rate": 1.0238095238095238e-05,
"loss": 0.6429,
"step": 430
},
{
"epoch": 0.7333333333333333,
"grad_norm": 3.0944504737854004,
"learning_rate": 1.0476190476190477e-05,
"loss": 0.6756,
"step": 440
},
{
"epoch": 0.75,
"grad_norm": 5.158036708831787,
"learning_rate": 1.0714285714285714e-05,
"loss": 0.6863,
"step": 450
},
{
"epoch": 0.7666666666666667,
"grad_norm": 3.744805335998535,
"learning_rate": 1.0952380952380955e-05,
"loss": 0.6826,
"step": 460
},
{
"epoch": 0.7833333333333333,
"grad_norm": 2.350935220718384,
"learning_rate": 1.1190476190476192e-05,
"loss": 0.6465,
"step": 470
},
{
"epoch": 0.8,
"grad_norm": 2.391106367111206,
"learning_rate": 1.1428571428571429e-05,
"loss": 0.6494,
"step": 480
},
{
"epoch": 0.8166666666666667,
"grad_norm": 2.6871049404144287,
"learning_rate": 1.1666666666666668e-05,
"loss": 0.614,
"step": 490
},
{
"epoch": 0.8333333333333334,
"grad_norm": 2.496380567550659,
"learning_rate": 1.1904761904761905e-05,
"loss": 0.639,
"step": 500
},
{
"epoch": 0.85,
"grad_norm": 3.1409785747528076,
"learning_rate": 1.2142857142857142e-05,
"loss": 0.6906,
"step": 510
},
{
"epoch": 0.8666666666666667,
"grad_norm": 2.4331531524658203,
"learning_rate": 1.2380952380952383e-05,
"loss": 0.5914,
"step": 520
},
{
"epoch": 0.8833333333333333,
"grad_norm": 2.956902265548706,
"learning_rate": 1.261904761904762e-05,
"loss": 0.7081,
"step": 530
},
{
"epoch": 0.9,
"grad_norm": 2.1885573863983154,
"learning_rate": 1.2857142857142859e-05,
"loss": 0.6466,
"step": 540
},
{
"epoch": 0.9166666666666666,
"grad_norm": 2.6431517601013184,
"learning_rate": 1.3095238095238096e-05,
"loss": 0.6631,
"step": 550
},
{
"epoch": 0.9333333333333333,
"grad_norm": 2.1615426540374756,
"learning_rate": 1.3333333333333333e-05,
"loss": 0.6735,
"step": 560
},
{
"epoch": 0.95,
"grad_norm": 2.0207862854003906,
"learning_rate": 1.3571428571428574e-05,
"loss": 0.6325,
"step": 570
},
{
"epoch": 0.9666666666666667,
"grad_norm": 2.8899736404418945,
"learning_rate": 1.3809523809523811e-05,
"loss": 0.6519,
"step": 580
},
{
"epoch": 0.9833333333333333,
"grad_norm": 2.453443765640259,
"learning_rate": 1.4047619047619048e-05,
"loss": 0.6532,
"step": 590
},
{
"epoch": 1.0,
"grad_norm": 3.556234121322632,
"learning_rate": 1.4285714285714287e-05,
"loss": 0.5941,
"step": 600
},
{
"epoch": 1.0,
"eval_accuracy": 0.6461538461538462,
"eval_loss": 0.6432204246520996,
"eval_runtime": 4.8353,
"eval_samples_per_second": 282.297,
"eval_steps_per_second": 17.786,
"step": 600
},
{
"epoch": 1.0166666666666666,
"grad_norm": 2.244147539138794,
"learning_rate": 1.4523809523809524e-05,
"loss": 0.6154,
"step": 610
},
{
"epoch": 1.0333333333333334,
"grad_norm": 2.3262217044830322,
"learning_rate": 1.4761904761904763e-05,
"loss": 0.5981,
"step": 620
},
{
"epoch": 1.05,
"grad_norm": 2.543795347213745,
"learning_rate": 1.5000000000000002e-05,
"loss": 0.6061,
"step": 630
},
{
"epoch": 1.0666666666666667,
"grad_norm": 3.5577542781829834,
"learning_rate": 1.523809523809524e-05,
"loss": 0.6432,
"step": 640
},
{
"epoch": 1.0833333333333333,
"grad_norm": 3.3030037879943848,
"learning_rate": 1.5476190476190476e-05,
"loss": 0.5663,
"step": 650
},
{
"epoch": 1.1,
"grad_norm": 2.2861194610595703,
"learning_rate": 1.5714285714285715e-05,
"loss": 0.6242,
"step": 660
},
{
"epoch": 1.1166666666666667,
"grad_norm": 3.9813036918640137,
"learning_rate": 1.5952380952380954e-05,
"loss": 0.6192,
"step": 670
},
{
"epoch": 1.1333333333333333,
"grad_norm": 5.103733062744141,
"learning_rate": 1.6190476190476193e-05,
"loss": 0.6288,
"step": 680
},
{
"epoch": 1.15,
"grad_norm": 4.313375949859619,
"learning_rate": 1.642857142857143e-05,
"loss": 0.5938,
"step": 690
},
{
"epoch": 1.1666666666666667,
"grad_norm": 3.633436918258667,
"learning_rate": 1.6666666666666667e-05,
"loss": 0.6003,
"step": 700
},
{
"epoch": 1.1833333333333333,
"grad_norm": 3.060312509536743,
"learning_rate": 1.6904761904761906e-05,
"loss": 0.6214,
"step": 710
},
{
"epoch": 1.2,
"grad_norm": 3.6623165607452393,
"learning_rate": 1.7142857142857142e-05,
"loss": 0.6283,
"step": 720
},
{
"epoch": 1.2166666666666668,
"grad_norm": 2.556682586669922,
"learning_rate": 1.7380952380952384e-05,
"loss": 0.603,
"step": 730
},
{
"epoch": 1.2333333333333334,
"grad_norm": 3.2409424781799316,
"learning_rate": 1.761904761904762e-05,
"loss": 0.6463,
"step": 740
},
{
"epoch": 1.25,
"grad_norm": 3.6875534057617188,
"learning_rate": 1.785714285714286e-05,
"loss": 0.5864,
"step": 750
},
{
"epoch": 1.2666666666666666,
"grad_norm": 2.9428772926330566,
"learning_rate": 1.8095238095238097e-05,
"loss": 0.6349,
"step": 760
},
{
"epoch": 1.2833333333333332,
"grad_norm": 2.926853656768799,
"learning_rate": 1.8333333333333333e-05,
"loss": 0.6658,
"step": 770
},
{
"epoch": 1.3,
"grad_norm": 3.1792550086975098,
"learning_rate": 1.8571428571428575e-05,
"loss": 0.6263,
"step": 780
},
{
"epoch": 1.3166666666666667,
"grad_norm": 2.887868642807007,
"learning_rate": 1.880952380952381e-05,
"loss": 0.5737,
"step": 790
},
{
"epoch": 1.3333333333333333,
"grad_norm": 3.9215023517608643,
"learning_rate": 1.904761904761905e-05,
"loss": 0.5895,
"step": 800
},
{
"epoch": 1.35,
"grad_norm": 3.228184938430786,
"learning_rate": 1.928571428571429e-05,
"loss": 0.675,
"step": 810
},
{
"epoch": 1.3666666666666667,
"grad_norm": 2.5528361797332764,
"learning_rate": 1.9523809523809524e-05,
"loss": 0.612,
"step": 820
},
{
"epoch": 1.3833333333333333,
"grad_norm": 3.355010509490967,
"learning_rate": 1.9761904761904763e-05,
"loss": 0.6137,
"step": 830
},
{
"epoch": 1.4,
"grad_norm": 5.365524768829346,
"learning_rate": 2e-05,
"loss": 0.6278,
"step": 840
},
{
"epoch": 1.4166666666666667,
"grad_norm": 2.9840915203094482,
"learning_rate": 1.999991365731819e-05,
"loss": 0.6106,
"step": 850
},
{
"epoch": 1.4333333333333333,
"grad_norm": 3.0227549076080322,
"learning_rate": 1.999965463076377e-05,
"loss": 0.6136,
"step": 860
},
{
"epoch": 1.45,
"grad_norm": 4.935601711273193,
"learning_rate": 1.999922292480975e-05,
"loss": 0.6194,
"step": 870
},
{
"epoch": 1.4666666666666668,
"grad_norm": 2.947390556335449,
"learning_rate": 1.999861854691106e-05,
"loss": 0.6737,
"step": 880
},
{
"epoch": 1.4833333333333334,
"grad_norm": 3.2077040672302246,
"learning_rate": 1.999784150750442e-05,
"loss": 0.5906,
"step": 890
},
{
"epoch": 1.5,
"grad_norm": 2.1263020038604736,
"learning_rate": 1.9996891820008165e-05,
"loss": 0.6731,
"step": 900
},
{
"epoch": 1.5166666666666666,
"grad_norm": 3.1736927032470703,
"learning_rate": 1.9995769500822007e-05,
"loss": 0.5658,
"step": 910
},
{
"epoch": 1.5333333333333332,
"grad_norm": 3.766897201538086,
"learning_rate": 1.999447456932676e-05,
"loss": 0.6082,
"step": 920
},
{
"epoch": 1.55,
"grad_norm": 7.309018135070801,
"learning_rate": 1.9993007047883988e-05,
"loss": 0.5453,
"step": 930
},
{
"epoch": 1.5666666666666667,
"grad_norm": 6.418699264526367,
"learning_rate": 1.9991366961835643e-05,
"loss": 0.6428,
"step": 940
},
{
"epoch": 1.5833333333333335,
"grad_norm": 2.967588424682617,
"learning_rate": 1.9989554339503612e-05,
"loss": 0.6075,
"step": 950
},
{
"epoch": 1.6,
"grad_norm": 3.2338814735412598,
"learning_rate": 1.9987569212189224e-05,
"loss": 0.6513,
"step": 960
},
{
"epoch": 1.6166666666666667,
"grad_norm": 2.6137988567352295,
"learning_rate": 1.9985411614172728e-05,
"loss": 0.6457,
"step": 970
},
{
"epoch": 1.6333333333333333,
"grad_norm": 2.2644853591918945,
"learning_rate": 1.9983081582712684e-05,
"loss": 0.6146,
"step": 980
},
{
"epoch": 1.65,
"grad_norm": 3.580810785293579,
"learning_rate": 1.9980579158045322e-05,
"loss": 0.6434,
"step": 990
},
{
"epoch": 1.6666666666666665,
"grad_norm": 3.8415021896362305,
"learning_rate": 1.997790438338385e-05,
"loss": 0.6149,
"step": 1000
},
{
"epoch": 1.6833333333333333,
"grad_norm": 3.2889180183410645,
"learning_rate": 1.997505730491772e-05,
"loss": 0.6029,
"step": 1010
},
{
"epoch": 1.7,
"grad_norm": 3.0964486598968506,
"learning_rate": 1.9972037971811802e-05,
"loss": 0.6128,
"step": 1020
},
{
"epoch": 1.7166666666666668,
"grad_norm": 3.3787407875061035,
"learning_rate": 1.9968846436205566e-05,
"loss": 0.6478,
"step": 1030
},
{
"epoch": 1.7333333333333334,
"grad_norm": 3.098156452178955,
"learning_rate": 1.9965482753212154e-05,
"loss": 0.617,
"step": 1040
},
{
"epoch": 1.75,
"grad_norm": 3.4448206424713135,
"learning_rate": 1.9961946980917457e-05,
"loss": 0.6047,
"step": 1050
},
{
"epoch": 1.7666666666666666,
"grad_norm": 2.8418798446655273,
"learning_rate": 1.995823918037908e-05,
"loss": 0.6228,
"step": 1060
},
{
"epoch": 1.7833333333333332,
"grad_norm": 2.9955010414123535,
"learning_rate": 1.9954359415625313e-05,
"loss": 0.6033,
"step": 1070
},
{
"epoch": 1.8,
"grad_norm": 3.4788753986358643,
"learning_rate": 1.9950307753654016e-05,
"loss": 0.5801,
"step": 1080
},
{
"epoch": 1.8166666666666667,
"grad_norm": 2.713418483734131,
"learning_rate": 1.994608426443146e-05,
"loss": 0.5789,
"step": 1090
},
{
"epoch": 1.8333333333333335,
"grad_norm": 3.982531785964966,
"learning_rate": 1.994168902089112e-05,
"loss": 0.6497,
"step": 1100
},
{
"epoch": 1.85,
"grad_norm": 2.0478599071502686,
"learning_rate": 1.9937122098932428e-05,
"loss": 0.6031,
"step": 1110
},
{
"epoch": 1.8666666666666667,
"grad_norm": 5.567689418792725,
"learning_rate": 1.9932383577419432e-05,
"loss": 0.6487,
"step": 1120
},
{
"epoch": 1.8833333333333333,
"grad_norm": 2.5129470825195312,
"learning_rate": 1.9927473538179467e-05,
"loss": 0.5877,
"step": 1130
},
{
"epoch": 1.9,
"grad_norm": 2.4075396060943604,
"learning_rate": 1.9922392066001724e-05,
"loss": 0.6478,
"step": 1140
},
{
"epoch": 1.9166666666666665,
"grad_norm": 3.643559217453003,
"learning_rate": 1.9917139248635788e-05,
"loss": 0.625,
"step": 1150
},
{
"epoch": 1.9333333333333333,
"grad_norm": 3.3517959117889404,
"learning_rate": 1.991171517679013e-05,
"loss": 0.6502,
"step": 1160
},
{
"epoch": 1.95,
"grad_norm": 2.3340976238250732,
"learning_rate": 1.9906119944130527e-05,
"loss": 0.6354,
"step": 1170
},
{
"epoch": 1.9666666666666668,
"grad_norm": 2.662628173828125,
"learning_rate": 1.9900353647278466e-05,
"loss": 0.6282,
"step": 1180
},
{
"epoch": 1.9833333333333334,
"grad_norm": 3.3780112266540527,
"learning_rate": 1.9894416385809444e-05,
"loss": 0.6428,
"step": 1190
},
{
"epoch": 2.0,
"grad_norm": 1.9971626996994019,
"learning_rate": 1.9888308262251286e-05,
"loss": 0.6028,
"step": 1200
},
{
"epoch": 2.0,
"eval_accuracy": 0.6571428571428571,
"eval_loss": 0.6266757845878601,
"eval_runtime": 1.9428,
"eval_samples_per_second": 702.601,
"eval_steps_per_second": 44.266,
"step": 1200
},
{
"epoch": 2.0166666666666666,
"grad_norm": 2.3505845069885254,
"learning_rate": 1.9882029382082342e-05,
"loss": 0.5231,
"step": 1210
},
{
"epoch": 2.033333333333333,
"grad_norm": 3.543018102645874,
"learning_rate": 1.9875579853729677e-05,
"loss": 0.6002,
"step": 1220
},
{
"epoch": 2.05,
"grad_norm": 2.687847852706909,
"learning_rate": 1.9868959788567213e-05,
"loss": 0.5469,
"step": 1230
},
{
"epoch": 2.066666666666667,
"grad_norm": 4.663837909698486,
"learning_rate": 1.9862169300913784e-05,
"loss": 0.5582,
"step": 1240
},
{
"epoch": 2.0833333333333335,
"grad_norm": 4.063023090362549,
"learning_rate": 1.9855208508031173e-05,
"loss": 0.549,
"step": 1250
},
{
"epoch": 2.1,
"grad_norm": 5.092895984649658,
"learning_rate": 1.9848077530122083e-05,
"loss": 0.607,
"step": 1260
},
{
"epoch": 2.1166666666666667,
"grad_norm": 3.7984111309051514,
"learning_rate": 1.9840776490328067e-05,
"loss": 0.592,
"step": 1270
},
{
"epoch": 2.1333333333333333,
"grad_norm": 3.775224447250366,
"learning_rate": 1.9833305514727396e-05,
"loss": 0.5196,
"step": 1280
},
{
"epoch": 2.15,
"grad_norm": 5.623272895812988,
"learning_rate": 1.9825664732332886e-05,
"loss": 0.5283,
"step": 1290
},
{
"epoch": 2.1666666666666665,
"grad_norm": 4.856538772583008,
"learning_rate": 1.981785427508966e-05,
"loss": 0.518,
"step": 1300
},
{
"epoch": 2.183333333333333,
"grad_norm": 5.726941108703613,
"learning_rate": 1.9809874277872886e-05,
"loss": 0.5532,
"step": 1310
},
{
"epoch": 2.2,
"grad_norm": 5.120604515075684,
"learning_rate": 1.9801724878485438e-05,
"loss": 0.5172,
"step": 1320
},
{
"epoch": 2.216666666666667,
"grad_norm": 7.325108051300049,
"learning_rate": 1.9793406217655516e-05,
"loss": 0.5383,
"step": 1330
},
{
"epoch": 2.2333333333333334,
"grad_norm": 5.705660820007324,
"learning_rate": 1.9784918439034216e-05,
"loss": 0.4953,
"step": 1340
},
{
"epoch": 2.25,
"grad_norm": 6.060757637023926,
"learning_rate": 1.977626168919305e-05,
"loss": 0.5214,
"step": 1350
},
{
"epoch": 2.2666666666666666,
"grad_norm": 3.8743319511413574,
"learning_rate": 1.9767436117621416e-05,
"loss": 0.5362,
"step": 1360
},
{
"epoch": 2.283333333333333,
"grad_norm": 4.374029636383057,
"learning_rate": 1.975844187672402e-05,
"loss": 0.5604,
"step": 1370
},
{
"epoch": 2.3,
"grad_norm": 6.106194019317627,
"learning_rate": 1.9749279121818235e-05,
"loss": 0.5306,
"step": 1380
},
{
"epoch": 2.3166666666666664,
"grad_norm": 5.56414270401001,
"learning_rate": 1.9739948011131438e-05,
"loss": 0.5369,
"step": 1390
},
{
"epoch": 2.3333333333333335,
"grad_norm": 3.9365651607513428,
"learning_rate": 1.973044870579824e-05,
"loss": 0.526,
"step": 1400
},
{
"epoch": 2.35,
"grad_norm": 4.8061394691467285,
"learning_rate": 1.9720781369857747e-05,
"loss": 0.5264,
"step": 1410
},
{
"epoch": 2.3666666666666667,
"grad_norm": 5.648602485656738,
"learning_rate": 1.9710946170250702e-05,
"loss": 0.5488,
"step": 1420
},
{
"epoch": 2.3833333333333333,
"grad_norm": 4.482698917388916,
"learning_rate": 1.9700943276816602e-05,
"loss": 0.5014,
"step": 1430
},
{
"epoch": 2.4,
"grad_norm": 5.18354606628418,
"learning_rate": 1.969077286229078e-05,
"loss": 0.5383,
"step": 1440
},
{
"epoch": 2.4166666666666665,
"grad_norm": 5.076839923858643,
"learning_rate": 1.9680435102301412e-05,
"loss": 0.5387,
"step": 1450
},
{
"epoch": 2.4333333333333336,
"grad_norm": 5.83772611618042,
"learning_rate": 1.9669930175366474e-05,
"loss": 0.4779,
"step": 1460
},
{
"epoch": 2.45,
"grad_norm": 5.16604471206665,
"learning_rate": 1.9659258262890683e-05,
"loss": 0.5521,
"step": 1470
},
{
"epoch": 2.466666666666667,
"grad_norm": 4.944518089294434,
"learning_rate": 1.964841954916235e-05,
"loss": 0.4844,
"step": 1480
},
{
"epoch": 2.4833333333333334,
"grad_norm": 6.394619941711426,
"learning_rate": 1.9637414221350198e-05,
"loss": 0.567,
"step": 1490
},
{
"epoch": 2.5,
"grad_norm": 5.958597183227539,
"learning_rate": 1.962624246950012e-05,
"loss": 0.4951,
"step": 1500
},
{
"epoch": 2.5166666666666666,
"grad_norm": 4.636740207672119,
"learning_rate": 1.9614904486531935e-05,
"loss": 0.5123,
"step": 1510
},
{
"epoch": 2.533333333333333,
"grad_norm": 4.756173610687256,
"learning_rate": 1.9603400468236e-05,
"loss": 0.58,
"step": 1520
},
{
"epoch": 2.55,
"grad_norm": 3.969093084335327,
"learning_rate": 1.9591730613269878e-05,
"loss": 0.5517,
"step": 1530
},
{
"epoch": 2.5666666666666664,
"grad_norm": 4.5238237380981445,
"learning_rate": 1.957989512315489e-05,
"loss": 0.5167,
"step": 1540
},
{
"epoch": 2.5833333333333335,
"grad_norm": 5.810571670532227,
"learning_rate": 1.9567894202272623e-05,
"loss": 0.4826,
"step": 1550
},
{
"epoch": 2.6,
"grad_norm": 4.773239612579346,
"learning_rate": 1.955572805786141e-05,
"loss": 0.5443,
"step": 1560
},
{
"epoch": 2.6166666666666667,
"grad_norm": 4.351752281188965,
"learning_rate": 1.9543396900012763e-05,
"loss": 0.526,
"step": 1570
},
{
"epoch": 2.6333333333333333,
"grad_norm": 5.192873954772949,
"learning_rate": 1.9530900941667733e-05,
"loss": 0.5179,
"step": 1580
},
{
"epoch": 2.65,
"grad_norm": 5.123302936553955,
"learning_rate": 1.9518240398613226e-05,
"loss": 0.528,
"step": 1590
},
{
"epoch": 2.6666666666666665,
"grad_norm": 4.081309795379639,
"learning_rate": 1.9505415489478293e-05,
"loss": 0.592,
"step": 1600
},
{
"epoch": 2.6833333333333336,
"grad_norm": 6.409515857696533,
"learning_rate": 1.949242643573034e-05,
"loss": 0.5388,
"step": 1610
},
{
"epoch": 2.7,
"grad_norm": 5.410388469696045,
"learning_rate": 1.947927346167132e-05,
"loss": 0.5233,
"step": 1620
},
{
"epoch": 2.716666666666667,
"grad_norm": 3.5235464572906494,
"learning_rate": 1.9465956794433837e-05,
"loss": 0.5285,
"step": 1630
},
{
"epoch": 2.7333333333333334,
"grad_norm": 5.431538105010986,
"learning_rate": 1.945247666397725e-05,
"loss": 0.4719,
"step": 1640
},
{
"epoch": 2.75,
"grad_norm": 6.913374900817871,
"learning_rate": 1.9438833303083677e-05,
"loss": 0.4603,
"step": 1650
},
{
"epoch": 2.7666666666666666,
"grad_norm": 6.34077262878418,
"learning_rate": 1.9425026947353994e-05,
"loss": 0.5288,
"step": 1660
},
{
"epoch": 2.783333333333333,
"grad_norm": 4.550387382507324,
"learning_rate": 1.9411057835203756e-05,
"loss": 0.4983,
"step": 1670
},
{
"epoch": 2.8,
"grad_norm": 4.740011692047119,
"learning_rate": 1.9396926207859085e-05,
"loss": 0.4939,
"step": 1680
},
{
"epoch": 2.8166666666666664,
"grad_norm": 5.84373664855957,
"learning_rate": 1.9382632309352503e-05,
"loss": 0.5498,
"step": 1690
},
{
"epoch": 2.8333333333333335,
"grad_norm": 4.3570027351379395,
"learning_rate": 1.936817638651871e-05,
"loss": 0.4716,
"step": 1700
},
{
"epoch": 2.85,
"grad_norm": 5.5916666984558105,
"learning_rate": 1.935355868899034e-05,
"loss": 0.5037,
"step": 1710
},
{
"epoch": 2.8666666666666667,
"grad_norm": 4.379909038543701,
"learning_rate": 1.9338779469193638e-05,
"loss": 0.5789,
"step": 1720
},
{
"epoch": 2.8833333333333333,
"grad_norm": 5.084365367889404,
"learning_rate": 1.9323838982344092e-05,
"loss": 0.5584,
"step": 1730
},
{
"epoch": 2.9,
"grad_norm": 6.741174221038818,
"learning_rate": 1.9308737486442045e-05,
"loss": 0.5089,
"step": 1740
},
{
"epoch": 2.9166666666666665,
"grad_norm": 6.0026469230651855,
"learning_rate": 1.9293475242268224e-05,
"loss": 0.4928,
"step": 1750
},
{
"epoch": 2.9333333333333336,
"grad_norm": 6.163332939147949,
"learning_rate": 1.9278052513379256e-05,
"loss": 0.5397,
"step": 1760
},
{
"epoch": 2.95,
"grad_norm": 5.151211738586426,
"learning_rate": 1.926246956610309e-05,
"loss": 0.5085,
"step": 1770
},
{
"epoch": 2.966666666666667,
"grad_norm": 5.902535915374756,
"learning_rate": 1.9246726669534416e-05,
"loss": 0.5619,
"step": 1780
},
{
"epoch": 2.9833333333333334,
"grad_norm": 4.26236629486084,
"learning_rate": 1.923082409553002e-05,
"loss": 0.4873,
"step": 1790
},
{
"epoch": 3.0,
"grad_norm": 9.270946502685547,
"learning_rate": 1.921476211870408e-05,
"loss": 0.5346,
"step": 1800
},
{
"epoch": 3.0,
"eval_accuracy": 0.663003663003663,
"eval_loss": 0.6800894737243652,
"eval_runtime": 2.0234,
"eval_samples_per_second": 674.621,
"eval_steps_per_second": 42.504,
"step": 1800
}
],
"logging_steps": 10,
"max_steps": 8400,
"num_input_tokens_seen": 0,
"num_train_epochs": 14,
"save_steps": 500,
"stateful_callbacks": {
"EarlyStoppingCallback": {
"args": {
"early_stopping_patience": 9,
"early_stopping_threshold": 0.0
},
"attributes": {
"early_stopping_patience_counter": 0
}
},
"TrainerControl": {
"args": {
"should_epoch_stop": false,
"should_evaluate": false,
"should_log": false,
"should_save": true,
"should_training_stop": false
},
"attributes": {}
}
},
"total_flos": 953665919774208.0,
"train_batch_size": 16,
"trial_name": null,
"trial_params": null
}