मुख्य अवधारणा को तंत्रिका नेटवर्क के साथ Autoencoding के उदाहरण के साथ आसानी से समझा जा सकता है। आप इनपुट परत से इनपुट परत तक मध्यम परत के माध्यम से जानकारी पास करने के लिए तंत्रिका नेटवर्क को प्रशिक्षित करते हैं जो छोटे होते हैं।
एक पारंपरिक ऑटो एन्कोडर में, आपके पास आकार एन का इनपुट वेक्टर होता है, लंबाई एम की एक मध्यम परत एम < एन, और आउटपुट परत, आकार एन के फिर से। आप एक समय में केवल एक इकाई चाहते हैं इनपुट परत और आप आउटपुट परत में इनपुट परत में चालू होने वाली इकाई को दोहराने के लिए नेटवर्क को प्रशिक्षित करते हैं।
प्रशिक्षण सफलतापूर्वक पूरा हो जाने के बाद आप देखेंगे कि तंत्र परत, इनपुट परत से आउटपुट परत तक जानकारी को परिवहन करने के लिए स्वयं को अनुकूलित करती है ताकि प्रत्येक इनपुट इकाई में मध्यम परत में एक समान वेक्टर प्रतिनिधित्व हो।
शब्द 2vec के संदर्भ में थोड़ा सा सरलीकरण, आपके इनपुट और आउटपुट वैक्टर उसी तरह से कम या कम काम करते हैं, इस तथ्य को छोड़कर कि नमूना में आप नेटवर्क में जमा करते हैं, इनपुट इनपुट में चालू इकाई अलग होती है आउटपुट परत में चालू इकाई से।
असल में आप नेटवर्क को अपने कॉर्पस से निकट (अनिवार्य रूप से आसन्न) शब्दों को चुनने और उन्हें नेटवर्क पर सबमिट करने के लिए प्रशिक्षित करते हैं।
इनपुट और आउटपुट वेक्टर का आकार उस शब्दावली के आकार के बराबर है जिसे आप नेटवर्क पर खिला रहे हैं।
आपके इनपुट वेक्टर में केवल एक इकाई चालू है (जो कि चयनित जोड़ी के पहले शब्द से संबंधित है) आउटपुट वेक्टर में एक यूनिट चालू है (जो चयनित जोड़ी के दूसरे शब्द से संबंधित है)।
स्रोत
2016-05-31 20:52:36
देखें http://cs224d.stanford.edu/lecture_notes/LectureNotes1.pdf – e9t