2011-08-30 14 views
7

मैं सोच रहा था: एक बहु-परत फ़ीड-फ़ॉरवर्ड तंत्रिका नेटवर्क में इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए, या यह छिपी परतों में बस उपयोगी है? यदि हां, तो क्यों?क्या एक इनपुट परत में पूर्वाग्रह न्यूरॉन शामिल होना चाहिए?

धन्यवाद,
Tunnuz

उत्तर

6

नहीं है, एक इनपुट परत के बाद से किसी भी सक्रियण यह पूर्वाग्रह न्यूरॉन से प्राप्त पूरी तरह से वास्तविक इनपुट द्वारा ओवरराइड किया जाएगा, पूर्वाग्रह न्यूरॉन के लिए एक कनेक्शन की जरूरत नहीं है।

उदाहरण के लिए, एक नेटवर्क है कि क्लासिक XOR problem हल करने के लिए कोशिश कर रहा है की कल्पना, इस वास्तुकला (जहां न्यूरॉन सिर्फ 1 चिह्नित पूर्वाग्रह है) का उपयोग कर:

enter image description here

इनपुट पर इस नेटवर्क को चलाने के लिए (1 , 0), आप बस न्यूरॉन्स X1 = 1 और X2 = 0 के सक्रियण को दबाते हैं। अब, यदि एक्स 1 या एक्स 2 को पूर्वाग्रह से भी इनपुट प्राप्त हुआ था, तो उस इनपुट को किसी भी तरह से ओवरराइड किया जाएगा, इस प्रकार इस तरह के कनेक्शन को व्यर्थ बना दिया जाएगा।

+1

क्षमा करें मुझे, आपके ड्राइंग में पूर्वाग्रह न्यूरॉन इनपुट परत का हिस्सा है, क्योंकि इसे छिपी हुई परत पर अग्रेषित किया गया है, क्या मैं गलत हूं? – tunnuz

+0

एह, थोडा। पूर्वाग्रह न्यूरॉन आमतौर पर हमेशा अपनी खुद की लिल परत में होने के रूप में चित्रित किया जाता है। मैंने सोचा था कि आपका प्रश्न इनपुट परत में इकाइयों को पूर्वाग्रह इकाई से कनेक्ट करना है या नहीं। किसी भी मामले में जवाब एक फर्म नंबर है; आपको हमेशा एक पूर्वाग्रह इकाई की आवश्यकता होती है जिसमें निरंतर सक्रियण होता है और इसकी अपनी परत में होता है। आम तौर पर यह सभी गैर-इनपुट परतों से जुड़ता है। – zergylord

+0

आगे स्पष्टीकरण के लिए, यह प्रश्न देखें: http://stackoverflow.com/q/7175099/821806। इसके अलावा, यह मेरी आकृति नहीं है, बल्कि मुझे यहां से प्राप्त किया गया है: http://home.agh.edu.pl/~vlsi/AI/xor_t/en/main.htm – zergylord

संबंधित मुद्दे