tensorflow tutorial भाषा मॉडल पर वाक्य की संभावना की गणना करने के लिए अनुमति देता है भाषा मॉडल का उपयोग कर अगले शब्द की भविष्यवाणी:tensorflow उदाहरण
probabilities = tf.nn.softmax(logits)
टिप्पणी में
नीचे यह भी संभावनाओं के बजाय अगले शब्द की भविष्यवाणी करने का एक तरीका निर्दिष्ट करता है लेकिन यह निर्दिष्ट नहीं करता कि यह कैसे किया जा सकता है। तो इस उदाहरण का उपयोग कर संभावना के बजाय एक शब्द कैसे आउटपुट करें?
lstm = rnn_cell.BasicLSTMCell(lstm_size)
# Initial state of the LSTM memory.
state = tf.zeros([batch_size, lstm.state_size])
loss = 0.0
for current_batch_of_words in words_in_dataset:
# The value of state is updated after processing each batch of words.
output, state = lstm(current_batch_of_words, state)
# The LSTM output can be used to make next word predictions
logits = tf.matmul(output, softmax_w) + softmax_b
probabilities = tf.nn.softmax(logits)
loss += loss_function(probabilities, target_words)
हाँ मैं समझ गया कि आप एक ही के लिए एक उदाहरण कोड कर सकते हैं? इसके अलावा संभवतः एक विशाल vocab आकार भी है और vocab में प्रत्येक शब्द के लिए पुनरावृत्ति व्यावहारिक रूप से अक्षम है। – stackit
अपनी प्रकृति में मशीन सीखना एक समस्या को हल करने की एक उच्च गणना विधि है। आप अपने मॉडल को कैसे प्रशिक्षण दे रहे हैं, इस पर निर्भर करते हुए, आप पहले से ही कई बार vocab पर फिर से चल रहे हो सकता है। एक ठेठ मशीन पर, आप कुछ सेकंड में कुछ मिलियन तारों को फिर से शुरू कर सकते हैं, इसलिए यह अपरिहार्य नहीं हो सकता है। आप गणना समय में कटौती चाहते हैं (और बाद के प्रदर्शन पर) आप एक तरह से बस बार-बार दोहराना जब आप एक बड़ा पर्याप्त संभावना –
के साथ एक परिणाम को पाने के अपने ठीक प्रशिक्षण के दौरान नहीं बल्कि उत्पादन उपयोग – stackit