我了解到,无论隐藏层数量多少,神经网络都可以近似非线性函数,但它是否能预测一些特殊函数,特别是能否像某些统计方法那样工作呢?
假设有一个分类问题的统计规则如下。对于训练集输入X_train和输出Y_train,我们计算X_train中属于每个特定类别的几何平均值(即每个特定类别的X_train的中心)。因此,每个类别我们都有一个中心。现在,对于测试数据,我们通过找到与训练中心的欧几里得距离最短的中心来估计类别标签。例如,假设训练给出的中心映射如下:(-1,1,1)->0, (1,1,1)->1。那么,对于测试数据(-0.8,0.5,1),因为它更接近(-1,1,1),它应该属于类别0。
问题是我不知道是否有任何监督学习方法可以执行上述策略。我将其称为“监督k-means”。KNN方法类似,但它是基于N个最近点而不是所有训练点的平均值来确定标签的。
我想知道神经网络是否能做到这一点。或者我是否错过了其他可以实际执行上述策略的学习技术?如果我试图学习的统计策略更加复杂,例如包括中心和协方差呢?
回答:
使用神经网络来解决这样的问题可能有些过度了。
线性判别分析和高斯朴素贝叶斯所做的与你描述的类似。它们估计每个类别的中心作为算术平均值,并将每个点与最近的中心相关联。但它们计算的是修改后的距离而不是欧几里得距离:GNB估计每个特征的条件方差,而LDA还估计协方差。它们还考虑了先验类别概率。这些修改可能会改善你的分类,但如果你不想要这些修改,你可以自己编写一个算法来实现。