|
{ |
|
"best_metric": null, |
|
"best_model_checkpoint": null, |
|
"epoch": 6.666666666666667, |
|
"eval_steps": 100, |
|
"global_step": 1000, |
|
"is_hyper_param_search": false, |
|
"is_local_process_zero": true, |
|
"is_world_process_zero": true, |
|
"log_history": [ |
|
{ |
|
"epoch": 0.3333333333333333, |
|
"grad_norm": 6.638962268829346, |
|
"learning_rate": 0.00015, |
|
"loss": 11.1435, |
|
"step": 50 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"grad_norm": 0.32958298921585083, |
|
"learning_rate": 0.0003, |
|
"loss": 1.3737, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 0.6666666666666666, |
|
"eval_loss": 0.5655200481414795, |
|
"eval_runtime": 19.9386, |
|
"eval_samples_per_second": 30.092, |
|
"eval_steps_per_second": 3.762, |
|
"step": 100 |
|
}, |
|
{ |
|
"epoch": 1.0, |
|
"grad_norm": 0.33953434228897095, |
|
"learning_rate": 0.00028636363636363636, |
|
"loss": 0.5027, |
|
"step": 150 |
|
}, |
|
{ |
|
"epoch": 1.3333333333333333, |
|
"grad_norm": 0.2767198383808136, |
|
"learning_rate": 0.0002727272727272727, |
|
"loss": 0.2077, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.3333333333333333, |
|
"eval_loss": 0.04386770725250244, |
|
"eval_runtime": 41.6128, |
|
"eval_samples_per_second": 14.419, |
|
"eval_steps_per_second": 1.802, |
|
"step": 200 |
|
}, |
|
{ |
|
"epoch": 1.6666666666666665, |
|
"grad_norm": 0.2200630158185959, |
|
"learning_rate": 0.00025909090909090907, |
|
"loss": 0.1041, |
|
"step": 250 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"grad_norm": 0.19840039312839508, |
|
"learning_rate": 0.00024545454545454545, |
|
"loss": 0.0635, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 2.0, |
|
"eval_loss": 0.013007530942559242, |
|
"eval_runtime": 25.1999, |
|
"eval_samples_per_second": 23.81, |
|
"eval_steps_per_second": 2.976, |
|
"step": 300 |
|
}, |
|
{ |
|
"epoch": 2.3333333333333335, |
|
"grad_norm": 0.13067609071731567, |
|
"learning_rate": 0.0002318181818181818, |
|
"loss": 0.0458, |
|
"step": 350 |
|
}, |
|
{ |
|
"epoch": 2.6666666666666665, |
|
"grad_norm": 0.14327284693717957, |
|
"learning_rate": 0.00021818181818181816, |
|
"loss": 0.0347, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 2.6666666666666665, |
|
"eval_loss": 0.009889846667647362, |
|
"eval_runtime": 24.6225, |
|
"eval_samples_per_second": 24.368, |
|
"eval_steps_per_second": 3.046, |
|
"step": 400 |
|
}, |
|
{ |
|
"epoch": 3.0, |
|
"grad_norm": 0.12795384228229523, |
|
"learning_rate": 0.0002045454545454545, |
|
"loss": 0.0292, |
|
"step": 450 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"grad_norm": 0.10173379629850388, |
|
"learning_rate": 0.0001909090909090909, |
|
"loss": 0.0259, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 3.3333333333333335, |
|
"eval_loss": 0.008001920767128468, |
|
"eval_runtime": 28.8328, |
|
"eval_samples_per_second": 20.81, |
|
"eval_steps_per_second": 2.601, |
|
"step": 500 |
|
}, |
|
{ |
|
"epoch": 3.6666666666666665, |
|
"grad_norm": 0.10923352837562561, |
|
"learning_rate": 0.00017727272727272728, |
|
"loss": 0.0223, |
|
"step": 550 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"grad_norm": 0.09930842369794846, |
|
"learning_rate": 0.0001636363636363636, |
|
"loss": 0.0206, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 4.0, |
|
"eval_loss": 0.006877058185636997, |
|
"eval_runtime": 26.3527, |
|
"eval_samples_per_second": 22.768, |
|
"eval_steps_per_second": 2.846, |
|
"step": 600 |
|
}, |
|
{ |
|
"epoch": 4.333333333333333, |
|
"grad_norm": 0.14481599628925323, |
|
"learning_rate": 0.00015, |
|
"loss": 0.0196, |
|
"step": 650 |
|
}, |
|
{ |
|
"epoch": 4.666666666666667, |
|
"grad_norm": 0.10063868761062622, |
|
"learning_rate": 0.00013636363636363634, |
|
"loss": 0.0178, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 4.666666666666667, |
|
"eval_loss": 0.006417799741029739, |
|
"eval_runtime": 25.4573, |
|
"eval_samples_per_second": 23.569, |
|
"eval_steps_per_second": 2.946, |
|
"step": 700 |
|
}, |
|
{ |
|
"epoch": 5.0, |
|
"grad_norm": 0.09571962058544159, |
|
"learning_rate": 0.00012272727272727272, |
|
"loss": 0.0161, |
|
"step": 750 |
|
}, |
|
{ |
|
"epoch": 5.333333333333333, |
|
"grad_norm": 0.08587690442800522, |
|
"learning_rate": 0.00010909090909090908, |
|
"loss": 0.016, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 5.333333333333333, |
|
"eval_loss": 0.005752269644290209, |
|
"eval_runtime": 24.7224, |
|
"eval_samples_per_second": 24.269, |
|
"eval_steps_per_second": 3.034, |
|
"step": 800 |
|
}, |
|
{ |
|
"epoch": 5.666666666666667, |
|
"grad_norm": 0.07417745888233185, |
|
"learning_rate": 9.545454545454545e-05, |
|
"loss": 0.0152, |
|
"step": 850 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"grad_norm": 0.08311035484075546, |
|
"learning_rate": 8.18181818181818e-05, |
|
"loss": 0.0143, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 6.0, |
|
"eval_loss": 0.00478348508477211, |
|
"eval_runtime": 26.3439, |
|
"eval_samples_per_second": 22.776, |
|
"eval_steps_per_second": 2.847, |
|
"step": 900 |
|
}, |
|
{ |
|
"epoch": 6.333333333333333, |
|
"grad_norm": 0.06424418836832047, |
|
"learning_rate": 6.818181818181817e-05, |
|
"loss": 0.0139, |
|
"step": 950 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"grad_norm": 0.06728924065828323, |
|
"learning_rate": 5.454545454545454e-05, |
|
"loss": 0.013, |
|
"step": 1000 |
|
}, |
|
{ |
|
"epoch": 6.666666666666667, |
|
"eval_loss": 0.00447163125500083, |
|
"eval_runtime": 28.703, |
|
"eval_samples_per_second": 20.904, |
|
"eval_steps_per_second": 2.613, |
|
"step": 1000 |
|
} |
|
], |
|
"logging_steps": 50, |
|
"max_steps": 1200, |
|
"num_input_tokens_seen": 0, |
|
"num_train_epochs": 8, |
|
"save_steps": 100, |
|
"stateful_callbacks": { |
|
"TrainerControl": { |
|
"args": { |
|
"should_epoch_stop": false, |
|
"should_evaluate": false, |
|
"should_log": false, |
|
"should_save": true, |
|
"should_training_stop": false |
|
}, |
|
"attributes": {} |
|
} |
|
}, |
|
"total_flos": 4915149668352000.0, |
|
"train_batch_size": 8, |
|
"trial_name": null, |
|
"trial_params": null |
|
} |
|
|