是否存在一种神经网络算法,支持动态添加特征(非固定特征集),并且不假设特征之间没有相关性?
回答:
-
我认为你不能动态添加特征,因为神经网络和其他许多算法一样,处理的是大小相同的输入向量,尽管这些向量可能是稀疏的。你可以用一组特征进行训练,然后存储权重,添加新特征并开始新的训练,我认为这会比第一次训练更快地收敛。
-
一阶神经网络的工作方式类似于逻辑回归,解决的是全局最大值问题,对特征没有任何假设,只是寻找与训练数据的概率分布相关的函数,以最大化训练数据的似然性,与朴素贝叶斯不同,后者分别计算每个概率,然后在独立性假设下将它们结合起来。