6

मैं सही इनपुट परत के बाद बैच सामान्य परत का उपयोग कर सकते हैं और अपने डेटा को सामान्य नहीं? मैं समान प्रभाव/प्रदर्शन प्राप्त करने की उम्मीद कर सकते हैं?बैच सामान्य

कुछ इस तरह keras कार्यात्मक में यह होगा:

x = Input (...) 
x = Batchnorm(...)(x) 
... 

उत्तर

4

तुम कर सकते हो। लेकिन batchnorm के बारे में अच्छी बात यह है, सक्रियण वितरण स्थिरीकरण के अलावा, कि मतलब और एसटीडी विचलन की संभावना है की ओर पलायन के रूप में नेटवर्क सीखता है।

प्रभावी रूप से, इनपुट परत के बाद बैचनोर्म को सही ढंग से सेट करना एक फैंसी डेटा प्री-प्रोसेसिंग चरण है। यह मदद करता है, कभी कभी एक बहुत (रेखीय प्रतीपगमन में उदा)। लेकिन यह मतलब है और पूरे प्रशिक्षण नमूने के विचरण की गणना करने के लिए एक बार, की तुलना में यह प्रति बैच सीखना आसान और अधिक प्रभावी है। ध्यान दें कि batchnorm प्रदर्शन के मामले में मुक्त नहीं है और आप इसे दुरुपयोग नहीं करना चाहिए।