神经网络特征组合

假设我们有一个神经网络,隐藏层数量、每层隐藏单元数量和迭代次数都足够高,以至于这些参数不会影响网络的预测结果。

给定特征 x1, x2, …, xn,是否可以(证明)在这些特征子集(x1 到 xn)下,一系列潜在特征是否冗余。也就是说,给定这些特征(x1 到 xn),神经网络是否能够识别出其他特征,例如:

  • 差异或加法(x1-x49,或 x17+xn)?
  • 乘积和比率(x1*x1,或 x47/xn)
  • 高阶多项式(或序列的乘积如 ∏(x1到 xn))
  • 基于原始特征的三角函数(sin(x1*xn) +x17)
  • 对数函数(ln(x2*x4)/x6)

沿着这个探究方向,我在思考是否有使用神经网络的情况,需要添加高阶或不同类型的函数来让网络准确预测。

总的来说,给定足够数量的特征,神经网络是否有可能模拟 任何 图形,如果不能,神经网络无法预测哪些功能领域?

此外,是否有人能指出与此主题相关的任何研究?

谢谢!


回答:

给定特征 x1, x2, …, xn,是否可以(证明)在这些特征子集(x1 到 xn)下,一系列潜在特征是否冗余。也就是说,给定这些特征(x1 到 xn),神经网络是否能够识别出其他特征

看起来你是在寻找用神经网络进行维度减少的方法。自动编码器可以做到这一点:

  • 你有输入 x1, x2, …, xn。
  • 你创建一个网络,接受这些输入(n 个输入节点)。它有一些隐藏层,一个瓶颈层(k 个节点,其中 k < n)和一个输出层(n 个节点)。
  • 目标是重新创建输入。

当它被训练后,你可以丢弃输出后的层。如果网络能够从瓶颈层恢复输入,那么后面的层就是不必要的。

总的来说,给定足够数量的特征,神经网络是否有可能模拟任何图形,如果不能,神经网络无法预测哪些功能领域?

我猜你在寻找通用逼近定理。简而言之:只要你给它们足够的节点和至少一个隐藏层,神经网络可以任意接近地逼近 R^n 紧子集上的任何连续函数

Related Posts

L1-L2正则化的不同系数

我想对网络的权重同时应用L1和L2正则化。然而,我找不…

使用scikit-learn的无监督方法将列表分类成不同组别,有没有办法?

我有一系列实例,每个实例都有一份列表,代表它所遵循的不…

f1_score metric in lightgbm

我想使用自定义指标f1_score来训练一个lgb模型…

通过相关系数矩阵进行特征选择

我在测试不同的算法时,如逻辑回归、高斯朴素贝叶斯、随机…

可以将机器学习库用于流式输入和输出吗?

已关闭。此问题需要更加聚焦。目前不接受回答。 想要改进…

在TensorFlow中,queue.dequeue_up_to()方法的用途是什么?

我对这个方法感到非常困惑,特别是当我发现这个令人费解的…

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注