मैं हाल ही में tf.nn.sparse_softmax_cross_entropy_with_logits में आए और मैं समझ नहीं क्या अंतर tf.nn.softmax_cross_entropy_with_logits की तुलना में है।टेंसरफ्लो: sparse_softmax_cross_entropy_with_logits और softmax_cross_entropy_with_logits के बीच क्या अंतर है?
है फर्क सिर्फ इतना है कि प्रशिक्षण वैक्टर one-hot encoded होना जरूरी y
जब sparse_softmax_cross_entropy_with_logits
का उपयोग कर?
एपीआई पढ़ना मैं softmax_cross_entropy_with_logits
की तुलना में कोई अन्य अंतर नहीं ढूंढ पाया ... लेकिन हमें अतिरिक्त कार्य की आवश्यकता क्यों है?
softmax_cross_entropy_with_logits
sparse_softmax_cross_entropy_with_logits
के समान परिणाम नहीं दे सकते हैं, अगर इसे एक गर्म एन्कोडेड प्रशिक्षण डेटा/वैक्टर के साथ आपूर्ति की जाती है?
का उत्पादन करता है, यदि दोनों का उपयोग किया जा सकता है (उदाहरण के लिए विशेष छवि लेबल के साथ) तो मैं उनके प्रदर्शन की तुलना देखने में रूचि रखता हूं; मैं उम्मीद करता हूं कि स्पैस संस्करण कम से कम स्मृति-वार, अधिक कुशल होना चाहिए। –
यह भी देखें [यह प्रश्न] (https://stackoverflow.com/q/47034888/712995), जो टेंसफोर्लो में * सभी क्रॉस-एन्ट्रॉपी फ़ंक्शंस * पर चर्चा करता है (उनमें से बहुत सारे हैं)। – Maxim