我有三个矩阵 A, B
和 C
,它们的尺寸都是 120*1000 double
,其中 120
代表时间点的数量,1000
代表特征的总数。对于每个矩阵,都有一个对应的回归矩阵,其尺寸都是 120*5 double
。回归矩阵只包含 "1"
和 "0"
,其中 "1"
表示在这个时间点有刺激,"0"
表示休息时间点。我想找到三个矩阵 A, B
和 C
的共同特征,并结合三个回归矩阵。然后我想基于矩阵 A
和 B
训练一个分类器。最后,我想基于训练数据对矩阵 C
进行分类。如何实现这一点?谢谢!
回答:
我希望有更有资格的人能介入,但看起来由于提问者缺乏具体信息,所有人都被吓退了。我的评论原本是作为指导而不是答案,但应要求,我将评论移到了答案部分。
首先,这完全不在我的专业范围内,所以请谨慎处理,但:
-
如果特征/对象之间没有关联
那么你应该将每个特征作为独立的 1D 函数/数组/向量来处理,并为每个特征训练一个神经网络分类器。
-
如果特征之间相互依赖
那么你需要将所有特征作为输入提供给你的神经网络分类器,并确保网络架构具有足够多的节点(权重)来处理如此多的数据。
-
只有当你想减少分类器的输入时,你才需要自己找出依赖关系
但由于你使用的是神经网络,你不需要这样做,因为神经网络本身倾向于完成这个任务。当然,如果你这样做了,会降低所需的架构复杂性。
无论如何,如果你真的需要这样做,那么PCA 主成分分析 是你的选择… 这一步通常用于基于确定性方法的分类器(不是神经网络的,例如基于相关系数,或基于任何度量中的距离等)。PCA 的优势在于你不需要对数据有太多的了解… 我所知道的所有其他降维方法通常会利用依赖关系或数据的某些特征,但这需要你对输入的属性有非常详细的了解,我假设这不是你的情况。