假设我们有一个神经网络,隐藏层数量、每层隐藏单元数量和迭代次数都足够高,以至于这些参数不会影响网络的预测结果。
给定特征 x1, x2, …, xn,是否可以(证明)在这些特征子集(x1 到 xn)下,一系列潜在特征是否冗余。也就是说,给定这些特征(x1 到 xn),神经网络是否能够识别出其他特征,例如:
- 差异或加法(x1-x49,或 x17+xn)?
- 乘积和比率(x1*x1,或 x47/xn)
- 高阶多项式(或序列的乘积如 ∏(x1到 xn))
- 基于原始特征的三角函数(sin(x1*xn) +x17)
- 对数函数(ln(x2*x4)/x6)
沿着这个探究方向,我在思考是否有使用神经网络的情况,需要添加高阶或不同类型的函数来让网络准确预测。
总的来说,给定足够数量的特征,神经网络是否有可能模拟 任何 图形,如果不能,神经网络无法预测哪些功能领域?
此外,是否有人能指出与此主题相关的任何研究?
谢谢!
回答:
给定特征 x1, x2, …, xn,是否可以(证明)在这些特征子集(x1 到 xn)下,一系列潜在特征是否冗余。也就是说,给定这些特征(x1 到 xn),神经网络是否能够识别出其他特征
看起来你是在寻找用神经网络进行维度减少的方法。自动编码器可以做到这一点:
- 你有输入 x1, x2, …, xn。
- 你创建一个网络,接受这些输入(n 个输入节点)。它有一些隐藏层,一个瓶颈层(k 个节点,其中 k < n)和一个输出层(n 个节点)。
- 目标是重新创建输入。
当它被训练后,你可以丢弃输出后的层。如果网络能够从瓶颈层恢复输入,那么后面的层就是不必要的。
总的来说,给定足够数量的特征,神经网络是否有可能模拟任何图形,如果不能,神经网络无法预测哪些功能领域?
我猜你在寻找通用逼近定理。简而言之:只要你给它们足够的节点和至少一个隐藏层,神经网络可以任意接近地逼近 R^n 紧子集上的任何连续函数