के माध्यम से बैकप्रोपैगेशन एल्गोरिदम मैं तंत्रिका नेटवर्क की प्रतिलिपि बनाने पर काम कर रहा हूं। मैं समझने की कोशिश कर रहा हूं कि मानक परत प्रकार कैसे काम करते हैं। विशेष रूप से, मुझे पिछड़े-पास पर क्रॉस-चैनल सामान्यीकरण परतों का व्यवहार करने के तरीके के बारे में कहीं भी विवरण खोजने में परेशानी हो रही है। अगले (अर्थात बाद में) परत सेक्रॉस-चैनल स्थानीय प्रतिक्रिया सामान्यीकरण (एलआरएन) परत
त्रुटि ढ़ाल उन्हें कुछ भी करने के बिना पीछे की ओर पारित कर रहे हैं:
के बाद से सामान्य परत कोई पैरामीटर है, मैं दो संभव विकल्प लगता है हो सकता है।
त्रुटि ग्रेडियेंट सामान्य रूप से आगे बढ़ते समय चैनलों में सक्रियण सामान्यीकृत होते हैं।
मैं, एक कारण नहीं सोच सकते हैं तुम क्यों एक दूसरे के ऊपर किसी भी अंतर्ज्ञान के आधार पर करना चाहते हैं इसलिए मैं क्यों इस पर कुछ मदद करना चाहते हैं।
EDIT1:
परत Caffe में एक मानक परत, के रूप में यहाँ http://caffe.berkeleyvision.org/tutorial/layers.html (देखें 'स्थानीय रिस्पांस सामान्यीकरण (LRN)') का वर्णन किया है।
फॉरवर्ड पास में परत के कार्यान्वयन alexNet कागज की धारा 3.3 में वर्णित है: http://papers.nips.cc/paper/4824-imagenet-classification-with-deep-convolutional-neural-networks.pdf
EDIT2:
मेरा मानना है कि आगे और पीछे पारित एल्गोरिदम दोनों मशाल पुस्तकालय यहाँ में वर्णित हैं: https://github.com/soumith/cudnn.torch/blob/master/SpatialCrossMapLRN.lua
और यहाँ Caffe पुस्तकालय में: https://github.com/BVLC/caffe/blob/master/src/caffe/layers/lrn_layer.cpp
कृपया किसी को भी, जो या तो से परिचित है/इन दोनों को उसका अनुवाद कर सकें सादे अंग्रेजी में पिछड़े पास चरण के लिए विधि?
क्या आप "क्रॉस-चैनल सामान्यीकरण परतों" के संदर्भ में लिंक कर सकते हैं? Google केवल एक आर्क्सिव पेपर दिखाता है जो कई अन्य चीजों के बारे में भी बात करता प्रतीत होता है। यह शायद मानक परत प्रकार की तरह लगता है। – IVlad
@IVlad लिंक जोड़े गए। – user1488804