我正在按照Andrew NG的指导对分类算法进行评估:
- 找出训练集的损失函数值。
- 将其与交叉验证集的损失函数值进行比较。
- 如果两者足够接近且数值较小,则进入下一步(否则,可能存在偏差或方差等问题)。
- 使用前一步得到的Theta值(即权重)对测试集进行预测,作为最终确认。
我试图使用Scikit-Learn
库来实现这一过程,但我完全迷失了方向,并且确信自己完全错了(我在网上没有找到任何类似的内容):
from sklearn import model_selection, svmfrom sklearn.metrics import make_scorer, log_lossfrom sklearn import datasetsdef main(): iris = datasets.load_iris() kfold = model_selection.KFold(n_splits=10, random_state=42) model= svm.SVC(kernel='linear', C=1) results = model_selection.cross_val_score(estimator=model, X=iris.data, y=iris.target, cv=kfold, scoring=make_scorer(log_loss, greater_is_better=False)) print(results)
错误
ValueError: y_true contains only one label (0). Please provide the true labels explicitly through the labels argument.
我甚至不确定这是否是正确的开始方式。任何帮助都将非常感激。
回答:
根据你在评论中提供的澄清,并且你对对数损失本身并不特别感兴趣,我认为最直接的方法是放弃对数损失,转而使用准确率:
from sklearn import model_selection, svmfrom sklearn import datasetsiris = datasets.load_iris()kfold = model_selection.KFold(n_splits=10, random_state=42)model= svm.SVC(kernel='linear', C=1)results = model_selection.cross_val_score(estimator=model, X=iris.data, y=iris.target, cv=kfold, scoring="accuracy") # 更改
正如评论中已经提到的,在这种情况下使用对数损失仍然存在scikit-learn中一些未解决的问题(参见这里和这里)。
为了评估模型的泛化能力,使用准确率指标是可以的。