我注意到H2O的文档中提到:
为了与激活函数兼容,数据会被预处理以标准化(回顾表1中对每个激活函数目标空间的总结)。由于激活函数通常不会映射到实数R的全范围,我们首先将数据标准化为从N(0,1)中抽取。网络传播后再次标准化,使我们能够在这个标准化空间中计算更精确的误差,而不是在原始特征空间中。对于自编码,数据被归一化(而不是标准化)到紧凑区间mathcalU(−0.5, 0.5),以便像Tanh这样的有界激活函数能够更好地重构数据。
然而,我不太理解。我的印象是(这里,和这里),分类变量应该被分解为1-of-C的虚拟变量,而连续数据应该被归一化。然后,所有数据都应该标准化为[-1,1]范围。
我也没有看到如何指定读取层的神经元。我认为如果我们有一个分类输出变量,那么我们应该使用Softmax激活函数(并编码为1-of-C)/ 如果我们有一个连续输出(例如价格),那么我们将其缩放到[-1,1]并使用’tanh’ / 如果我们有一个单一二元输出,那么我们可以使用logistic并将其编码为[0,1]
回答:
对于分类和回归(即监督模式),H2O深度学习执行以下操作:
输入到第一层神经网络的确实是分类特征的1-of-C虚拟变量(0或1)。连续特征被标准化(而不是归一化):去均值并按1/方差缩放。
对于回归,响应变量也在内部被标准化,以便(单一)输出神经元的激活值可以与之比较。然而,在评分时向用户展示时,预测值会被去标准化到原始空间。
对于分类,我们使用Softmax来获取C个类别的概率,即使是二元分类也是如此。
您引用的文档还提到了无监督自编码(通过启用自编码器标志)。在这种情况下,输入被归一化(即按1/(max-min)缩放)而不是标准化。这是为了让自编码器能够拥有完全重叠的输入和输出空间所必需的。