मैं बहु-जीपीयू के साथ प्रशिक्षण करते समय बैच आंकड़ों को सिंक्रनाइज़ करने के साथ बैच सामान्यीकरण परतों को लागू करने के संभावित तरीकों को जानना चाहता हूं। कैफे शायद कैफी के कुछ प्रकार हैं जो link जैसे क
मैं सही इनपुट परत के बाद बैच सामान्य परत का उपयोग कर सकते हैं और अपने डेटा को सामान्य नहीं? मैं समान प्रभाव/प्रदर्शन प्राप्त करने की उम्मीद कर सकते हैं? कुछ इस तरह keras कार्यात्मक में यह होगा: x = In
मैं बैच सामान्यीकरण का उपयोग करने की कोशिश कर रहा हूं। मैंने mnist के लिए एक सरल रूपांतरण नेट पर tf.layers.batch_normalization का उपयोग करने का प्रयास किया। मुझे ट्रेन चरण (> 98%) के लिए उच्च सटीकता म