在将 KernelPCA
应用于我的数据并将其传递给分类器(SVC
)后,我遇到了以下错误:
ValueError: 输入包含 NaN、无穷大或对于 dtype(‘float64’) 来说过大的值。
在执行 KernelPCA
时,我还收到了以下警告:
RuntimeWarning: 在 sqrt 中遇到无效值 X_transformed = self.alphas_ * np.sqrt(self.lambdas_)
查看转换后的数据,我发现了几个 nan
值。
无论我使用哪种 kernel
,情况都没有变化。我尝试了 cosine
、rbf
和 linear
。
但有趣的是:
-
我的原始数据只包含 0 到 1 之间的值(没有
inf
或nan
),它是用MinMaxScaler
缩放的 -
应用标准
PCA
有效,我认为这与使用linear
kernel
的KernelPCA
是相同的。
更多信息:
- 我的数据是高维的(超过 8000 个特征)且大部分是稀疏的。
- 我使用的是最新的 scikit-learn 版本,18.2
有什么办法可以克服这个问题,以及可能的原因是什么?
回答:
NaNs
的产生是因为输入矩阵的特征值(self.lambdas_)为负值,这会引发 ValueError,因为平方根不能处理负值。
可以通过设置 KernelPCA(remove_zero_eig=True, ...)
来解决这个问题,但这样做将无法保留数据的原始维度。使用此参数是最后的手段,因为模型的结果可能会出现偏差。
实际上,已经指出负特征值表明模型规格错误,这显然是不好的。避免这一事实而不损害数据维度的方法可能是减少原始特征的数量,这些特征之间高度相关。尝试构建相关矩阵,看看这些值是什么。然后,尝试省略冗余特征并再次拟合 KernelPCA()
。