我正在使用 XGBoost 并提前停止。经过大约 1000 个 epoch 后,模型仍在改进,但改进的幅度非常低。 IE。:
clf = xgb.train(params, dtrain, num_boost_round=num_rounds, evals=watchlist, early_stopping_rounds=10)
是否可以设置提前停止的“tol”?即:不触发提前停止所需的最低改进水平。
Tol 是 SKLearn 模型中的常用参数,例如 MLPClassifier 和 QuadraticDiscriminantAnalysis。谢谢。
我不认为有参数tol
在 xgboost 但你可以设置early_stopping_round
更高。该参数意味着如果测试集上的性能没有改善early_stopping_round
次,然后就停止了。如果您知道在 1000 个 epoch 后您的模型仍在改进,但速度非常缓慢,请设置early_stopping_round
例如,在 50 时,它会更“容忍”性能的微小变化。
本文内容由网友自发贡献,版权归原作者所有,本站不承担相应法律责任。如您发现有涉嫌抄袭侵权的内容,请联系:hwhale#tublm.com(使用前将#替换为@)