के साथ Seq2seq एम्बेडिंग प्रारंभ करना मुझे pretrained word2vec के साथ tensorflow seq2seq कार्यान्वयन प्रारंभ करने में रूचि है।pretrained word2vec
मैंने कोड देखा है। ऐसा लगता है कि एम्बेडिंग
with tf.variable_scope(scope or "embedding_attention_decoder"):
with tf.device("/cpu:0"):
embedding = tf.get_variable("embedding", [num_symbols, cell.input_size])
मैं इसे pretrained word2vec के साथ प्रारंभ करने के लिए कैसे बदलूं ??
अनुक्रमणिका के बारे में क्या: model.index2word? आप इसे tensorflow कैसे पास करते हैं? – vgoklani