我正在处理一些字符串,例如“一百二十三”或“九百九十九”,并使用Keras文本预处理标记器将其编码为长度为4的词标记序列,作为我的输入,包含4个节点。我的输出是多个整数类别,例如0到1000,共有1001个输出节点,使用TensorFlow作为后端。
我使用了一个嵌入输入层,然后是一个扁平层,最后是一个使用softmax激活函数的密集输出层来对输入序列进行分类,得到一个数字。
这种方法对于0到1000等数字效果很好,但当扩展到10万个数字,如“八万七千四百二十三”这样的字符串时,由于有10万个输出神经元,训练时间变得非常长,这成为了一个问题。
有没有更好的方法来构建神经网络,以处理可能达到的数百万数字,同时不牺牲效率?
回答:
或许你可以将其表述为使用RNN的序列预测问题,或者使用N位数字输出节点的回归问题。