我的RNN的第一层是嵌入层,如下所示。
visible = Input(shape=(250,)) embed=Embedding(vocab_size,50)(visible) x2=keras.layers.GRU(224, return_sequences=False)(embed)predictions=Dense(1, activation='sigmoid')(x2)
我训练了这个网络并预测了一些输出。
现在在训练之后,我在测试数据上进行测试,这非常简单明了。
我想知道我的测试数据的具体嵌入,或者为了实现的目的,模型训练后任何测试序列的嵌入。我想在其他应用中使用这些嵌入。有没有办法在训练后提取这些测试序列数据的嵌入?
尝试:假设我的模型是m,那么我可以按如下方式获取嵌入权重。
embeddings = m.layers[1].get_weights()
我还有一个反向字典reverse_char_map
,如下所示。
{1: 'c', 2: 'C', 3: '(', 4: ')', 5: 'O', 6: '=', 7: '1', 8: '2', 9: 'N', 10: '3', 11: 'n', 12: '[', 13: ']', 14: 'S', 15: '4', 16: '-', 17: 'l', 18: '+', 19: 'H', 20: '5', 21: 'F', 22: '.', 23: '#', 24: 's', 25: 'o', 26: '6', 27: 'P', 28: 'B', 29: 'r', 30: 'a', 31: '7', 32: 'e', 33: 'I', 34: 'i', 35: '8', 36: 'u', 37: 'K', 38: '9', 39: 'R', 40: '%', 41: '0', 42: 'Z', 43: 'h', 44: 'L', 45: 'A', 46: 't', 47: 'd', 48: 'G', 49: 'M', 50: 'g', 51: 'U', 52: 'b', 53: 'T', 54: 'W', 55: 'p', 56: 'V'}
我不知道如何使用embeddings
和reverse_char_map
来获取其中一个测试输入序列的嵌入。
回答:
你可以为上述层命名,如下所示:
visible = Input(shape=(250,), name='visible') embed=Embedding(vocab_size,50,name='embed')(visible) x2=keras.layers.GRU(224, return_sequences=False, name='x2')(embed)predictions=Dense(1, activation='sigmoid', name='final')(x2)
然后,由这些层组成的模型(我们称之为m1),可以用来初始化一个新模型,在这个新模型中,你可以引用这些层,如下所示:
def evaluation_model(training_model): visible = training_model.get_layer('visible') embed = training_model.get_layer('embed') output = embed(visible) m = Model(inputs=[visible], outputs=[output]) m.compile(..) return mem = evaluation_model(m1)
或者,你也可以简单地删除初始模型的最后几层,或者让它输出嵌入但不计算任何损失。