तुम कर सकते हो। लेकिन batchnorm के बारे में अच्छी बात यह है, सक्रियण वितरण स्थिरीकरण के अलावा, कि मतलब और एसटीडी विचलन की संभावना है की ओर पलायन के रूप में नेटवर्क सीखता है।
प्रभावी रूप से, इनपुट परत के बाद बैचनोर्म को सही ढंग से सेट करना एक फैंसी डेटा प्री-प्रोसेसिंग चरण है। यह मदद करता है, कभी कभी एक बहुत (रेखीय प्रतीपगमन में उदा)। लेकिन यह मतलब है और पूरे प्रशिक्षण नमूने के विचरण की गणना करने के लिए एक बार, की तुलना में यह प्रति बैच सीखना आसान और अधिक प्रभावी है। ध्यान दें कि batchnorm प्रदर्शन के मामले में मुक्त नहीं है और आप इसे दुरुपयोग नहीं करना चाहिए।