我在使用支持向量机作为金融市场数据的分类器
我有一个包含1500条数据记录的数据库
然后我进行预处理、划分以及训练和测试
X_train, X_test, y_train, y_test = train_test_split(X, y, test_size = 0.3, random_state = 42, stratify = y)scaler = StandardScaler()X_train = scaler.fit_transform(X_train)X_test = scaler.transform(X_test)
为了保持良好的控制,我使用pickle保存训练文件
然后我将文件上传到另一个包含新数据(约150条)的数据库
我也在新数据上应用了标准化器
当我运行模型并进行准确性测试时,得到的准确率为60%,仅作为示例
我的问题是,随着新数据库的增加,从150条增加到151条、152条、153条等等
在增加新数据时,我注意到模型的准确性下降,甚至之前的分类结果也发生了变化,原本分类为1的变成了0,反之亦然
我怀疑随着新数据的加入,缩放数据的维度发生了变化
我希望在插入新数据时,之前的数据不会有新的0和1评级,从而不会降低我最初的准确性
有谁能帮助解决这个问题吗?
回答:
由于信息不足,我们只能进行推测。问题在于,我从预测结果变化的事实中推断出,你并不是简单地使用当前的标准化器来转换新数据,而是先拟合然后再转换数据。简而言之,你需要将你的标准化器导出为pickle文件,然后在处理新数据时加载它,并且只进行转换(不进行拟合!)这些[150, 151, …]条数据。