मैं सोच रहा था: एक बहु-परत फ़ीड-फ़ॉरवर्ड तंत्रिका नेटवर्क में इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए, या यह छिपी परतों में बस उपयोगी है? यदि हां, तो क्यों?क्या एक इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए?
धन्यवाद,
Tunnuz
मैं सोच रहा था: एक बहु-परत फ़ीड-फ़ॉरवर्ड तंत्रिका नेटवर्क में इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए, या यह छिपी परतों में बस उपयोगी है? यदि हां, तो क्यों?क्या एक इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए?
धन्यवाद,
Tunnuz
नहीं है, एक इनपुट परत के बाद से किसी भी सक्रियण यह पूर्वाग्रह न्यूरॉन से प्राप्त पूरी तरह से वास्तविक इनपुट द्वारा ओवरराइड किया जाएगा, पूर्वाग्रह न्यूरॉन के लिए एक कनेक्शन की जरूरत नहीं है।
उदाहरण के लिए, एक नेटवर्क है कि क्लासिक XOR problem हल करने के लिए कोशिश कर रहा है की कल्पना, इस वास्तुकला (जहां न्यूरॉन सिर्फ 1 चिह्नित पूर्वाग्रह है) का उपयोग कर:
इनपुट पर इस नेटवर्क को चलाने के लिए (1 , 0), आप बस न्यूरॉन्स X1 = 1 और X2 = 0 के सक्रियण को दबाते हैं। अब, यदि एक्स 1 या एक्स 2 को पूर्वाग्रह से भी इनपुट प्राप्त हुआ था, तो उस इनपुट को किसी भी तरह से ओवरराइड किया जाएगा, इस प्रकार इस तरह के कनेक्शन को व्यर्थ बना दिया जाएगा।
क्षमा करें मुझे, आपके ड्राइंग में पूर्वाग्रह न्यूरॉन इनपुट परत का हिस्सा है, क्योंकि इसे छिपी हुई परत पर अग्रेषित किया गया है, क्या मैं गलत हूं? – tunnuz
एह, थोडा। पूर्वाग्रह न्यूरॉन आमतौर पर हमेशा अपनी खुद की लिल परत में होने के रूप में चित्रित किया जाता है। मैंने सोचा था कि आपका प्रश्न इनपुट परत में इकाइयों को पूर्वाग्रह इकाई से कनेक्ट करना है या नहीं। किसी भी मामले में जवाब एक फर्म नंबर है; आपको हमेशा एक पूर्वाग्रह इकाई की आवश्यकता होती है जिसमें निरंतर सक्रियण होता है और इसकी अपनी परत में होता है। आम तौर पर यह सभी गैर-इनपुट परतों से जुड़ता है। – zergylord
आगे स्पष्टीकरण के लिए, यह प्रश्न देखें: http://stackoverflow.com/q/7175099/821806। इसके अलावा, यह मेरी आकृति नहीं है, बल्कि मुझे यहां से प्राप्त किया गया है: http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord