我想知道在机器学习中,是否可以接受数据集中包含同一个输入多次出现的情况,但每次都对应不同的(有效的)输出。例如,在机器翻译中,同一个输入句子每次都给出不同的翻译。
一方面,我认为这是可以接受的,因为输出的差异可能更好地模拟小的潜在特征,从而提高模型的泛化能力。另一方面,我担心同一个输入多次出现会使模型对该输入产生偏见——这意味着深度神经网络的最初几层可能会在这个输入上“过拟合”。特别是,当同一个输入在测试集中多次出现,但在训练集中从未出现,或反之亦然时,这可能变得棘手。
回答:
一般来说,你可以做任何有效的方法,而这个“任何有效的方法”也是回答你问题的一个关键。首先,你需要定义一个性能指标。如果要学习的函数定义为X |-> Y
,其中X是源句子,Y是目标句子,那么性能度量是一个函数f((x,y)) -> |R
,反过来可以用来定义神经网络需要优化的损失函数。
为了简单起见,假设你使用准确率,即完全匹配的句子的比例。如果你有冲突的例子,如(x,y1)
和(x,y2)
,那么你将无法再达到100%的准确率,这感觉有点奇怪但不会造成任何伤害。另一个很酷且重要的事实是,根据定义,每个句子只能被正确匹配一次——假设你的神经网络预测中没有随机成分。这意味着,在构建模型时,具有更多替代翻译的句子不会被赋予更高的权重。这种方法的优势是可能带来更好的泛化能力。缺点是,这种方法可能会导致优化过程中损失的停滞,这可能导致模型卡在最佳选择之间。
一个更清晰的方法是,在定义你的性能度量/损失时考虑到存在替代翻译的事实。你可以定义性能指标为
其中1I是指示函数。
这将提供一个更清晰的度量。显然,你需要根据你的目标度量调整上述推导。