我的 featuresets
是一个包含以下形式元素的字典:
({0: 0.48447204968944096, 1: 0.035093167701863354, 2: 0.07453416149068323, 3: 0.046583850931677016, 4: 0.0, 5: 0.09316770186335403, ... 162: 1, 163: 1.0}, 'male')
当我尝试使用 sklearn 库中的 cross_val_score
或 cross_val_predict
时,总是会出现错误提示:
“float values cannot be dict”.
请问有人可以帮助我在 Python 中使用线性 SVC 和随机森林分类器实现交叉验证吗?
我之前尝试过这样做:
train_set, test_set = featuresets[1:1628], featuresets[1630:3257]np.asarray(train_set)np.asarray(test_set)clf = SVC(kernel='linear', C=5)predicted = cross_val_predict(clf, train_set, test_set, cv=10)metrics.accuracy_score(test_set, predicted)
另外,我不明白如何在这里实现 k 折交叉验证。
回答:
首先,我们需要导入必要的模块:
import numpy as npfrom sklearn.ensemble import RandomForestClassifierfrom sklearn.model_selection import cross_val_score
你需要创建一个随机森林分类器的实例,像这样:
clf = RandomForestClassifier()
然后你需要加载 featuresets
(我没有这些数据,所以无法测试我的代码),并将你的分类变量转换为数值变量,例如通过一个字典:
featuresets = # 这里是你自己的代码gender = {'male': 0, 'female': 1}
下一步是将特征和标签存储为 NumPy 数组:
X = np.asarray([[i[1] for i in sorted(d.items())] for d, _ in featuresets])y = np.asarray([gender[s] for _, s in featuresets])
现在你已经准备好通过划分数据、拟合模型并连续 10 次计算分数(每次使用不同的划分)来评估随机森林分类器在你的数据集上的准确性:
scores = cross_val_score(clf, X, y, cv=10)print('Scores =', scores)
如果你运行上述代码片段,应该会看到打印出一列 10 个分数。