于是我开始尝试使用FANN (http://leenissen.dk/) 来创建一个简单的推荐引擎。
例如,
用户X与id为[1, 2, 3]
的记录有关系
其他用户与以下id有关系:
- 用户A:
[1, 2, 3, 4]
- 用户B:
[1, 2, 3, 4]
因此,很自然地,用户X也有可能对id为4
的记录感兴趣,这应该是推荐引擎的预期输出。
感觉这应该是神经网络可以完成的任务。然而,通过尝试FANN和谷歌搜索,似乎需要数据和结果之间存在某种数学关系。而这里的id之间没有任何关系,这些id完全可以是任何符号。
问题: 是否可以用神经网络解决这种问题?我应该从哪里开始寻找解决方案?
回答:
你需要的是某种类型的循环神经网络;这种网络以某种方式存储“上下文”。这种网络的例子包括LSTM和GRU。因此,你需要按顺序输入数据。基于上下文和当前输入,网络将预测哪个标签最有可能。
似乎需要数据和结果之间存在某种数学关系。这里的id之间没有任何关系,这些id完全可以是任何符号。
数据和结果之间确实存在关系,这可以通过权重和偏置来表达。
那么它是如何工作的呢?首先,你需要对输入和输出进行独热编码。也就是说,你想要预测在用户已经互动的标签集之后,哪个标签最有可能。
如果你有5个标签:A, B, C, D, E,那么你将有5个输入和输出:[0, 0, 0, 0, 0]
。
如果你的标签是A,数组将是[1, 0, 0, 0, 0]
,如果是D,将是[0, 0, 0, 1, 0]
。
因此,LSTM和GRU的关键是数据应该是顺序的。也就是说,你一次输入一个观看过的标签。如果用户观看了A, B和C:
activate: [1,0,0,0,0] activate: [0,1,0,0,0]// 此激活的输出将是下一个预测的标签activate: [0,0,1,0,0]// 输出: [0.1, 0.3, 0.2, 0.7, 0.5],所以下一个标签是D
你应该始终训练网络,使得INt的输出是INt+1