我在使用MLPClassifier
时对fit
函数的应用遇到了问题。我仔细阅读了Scikit-Learn关于此的文档,但无法确定验证是如何工作的。
这是交叉验证吗,还是训练数据和验证数据之间有分割?
提前感谢。
回答:
fit
函数本身并不包含交叉验证,也不进行训练测试分割。幸运的是,你可以自己完成这些操作。
训练测试分割:
from sklearn.model_selection import train_test_splitX_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.33) // 测试集大小为0.33 clf = MLPClassifier()clf.fit(X_train, y_train) clf.predict(X_test, y_test) // 在测试集上进行预测
K折交叉验证
from sklearn.model_selection import KFoldkf = KFold(n_splits=2)kf.get_n_splits(X)clf = MLPClassifier()for train_index, test_index in kf.split(X): X_train, X_test = X[train_index], X[test_index] y_train, y_test = y[train_index], y[test_index] clf.fit(X_train, y_train) clf.predict(X_test, y_test) // 在测试集上进行预测
对于交叉验证,有多种函数可用,你可以在这里阅读更多。这里提到的k折只是一个例子。
编辑:
感谢这个回答,但基本上
fit
函数是如何具体工作的?它只是在给定数据(即训练集)上训练网络,直到达到max_iter,然后就结束了?
我假设你使用的是MLPClassifier
的默认配置。在这种情况下,fit
函数试图基于adam优化器进行优化。确实,在这种情况下,网络会训练直到达到max_iter。
此外,在K折交叉验证中,随着循环的进行,模型是否在改进,还是只是从头开始?
实际上,交叉验证并不是用来提高网络性能的,而是一种测试你的算法在不同数据上泛化能力的方法。对于k折,会训练和测试k个独立的分类器。