我目前正在进行一个机器学习项目,没有任何机器学习或Python的实际操作经验。我在网上遇到了以下代码,但不知道为什么会这样。
-
训练数据存储在哪里?是存储在X_train还是X_test?
-
为什么我们预测X_test并将其存储到y_preds变量中?由于我们使用了y_preds,我期望看到这样的代码:
y_preds = clf.predict(y_test)
代码:
from sklearn.model_selection import train_test_split# 使用train_test_split()函数,定义测试数据大小并将其存储到测试、训练和分割数据的变量中X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2)# 将数据拟合到上面定义的训练模型中clf.fit(X_train, y_train);# 在我们训练的数据上进行预测y_preds = clf.predict(X_test)
回答:
一般来说,学习问题考虑一组n个样本数据,然后尝试预测未知数据的属性。如果每个样本不只是一个数字,而是多维条目(即多变量数据),则被认为具有多个属性或特征。
学习问题可以分为几类:
A) 监督学习,其中数据附带我们想要预测的额外属性(点击这里跳转到scikit-learn监督学习页面)。此问题可以是以下两种之一:
-
分类:样本属于两个或更多类别,我们希望从已标记的数据中学习如何预测未标记数据的类别。一个分类问题的例子是手写数字识别,其目标是将每个输入向量分配到有限数量的离散类别中。另一种思考分类的角度是将其视为一种离散(相对于连续)的监督学习形式,其中有有限数量的类别,对于提供的n个样本,每个样本都需要尝试用正确的类别或类别进行标记。
-
回归:如果期望的输出由一个或多个连续变量组成,则该任务称为回归。一个回归问题的例子是根据鲑鱼的年龄和重量预测其长度。
B) 无监督学习,其中训练数据由一组没有对应目标值的输入向量x组成。此类问题的目标可能是发现数据中相似示例的组群,称为聚类,或者确定输入空间内数据的分布,称为密度估计,或者为了可视化的目的将数据从高维空间投影到二维或三维空间(点击这里跳转到Scikit-Learn无监督学习页面)。
基本上,机器学习是关于学习某个数据集的某些属性,然后在另一个数据集上测试这些属性。机器学习中的一种常见做法是通过将数据集分成两部分来评估算法。我们称其中一部分为训练集,我们在其上学习某些属性;我们称另一部分为测试集,我们在其上测试所学的属性。
请查看下面的链接。
https://scikit-learn.org/stable/user_guide.html
这是学习Scikit Learn的绝佳资源。有些事情可能难以理解,但这是一个很好的学习体验,而且确实有效!