मैंने एक छवि में व्यक्तिगत पिक्सेल वर्गीकृत करने के लिए एक गहरी कनवॉल्यूशन तंत्रिका नेटवर्क बनाया है। मेरा प्रशिक्षण डेटा हमेशा एक ही आकार (32x32x7) होगा, लेकिन मेरा परीक्षण डेटा किसी भी आकार का हो सकता है।टेन्सफोर्लो सीएनएन प्रशिक्षण छवियां सभी अलग-अलग आकार हैं
वर्तमान में, अपने मॉडल केवल छवियों है कि एक ही आकार के होते हैं पर काम करेंगे। मैंने अपने मॉडल को बनाने में मदद करने के लिए बड़े पैमाने पर tensorflow mnist tutorial का उपयोग किया है। इस ट्यूटोरियल में, हम केवल 28x28 छवियों का उपयोग करते हैं। किसी भी आकार की छवियों को स्वीकार करने के लिए निम्नलिखित mnist मॉडल कैसे बदला जाएगा?
x = tf.placeholder(tf.float32, shape=[None, 784])
y_ = tf.placeholder(tf.float32, shape=[None, 10])
W = tf.Variable(tf.zeros([784,10]))
b = tf.Variable(tf.zeros([10]))
x_image = tf.reshape(x, [-1, 28, 28, 1])
बातें थोड़ा और अधिक जटिल बनाने के लिए, अपने मॉडल convolutions जहां उत्पादन आकार निर्दिष्ट करने की आवश्यकता है स्थानांतरित किया है। मैं कोड की निम्न पंक्ति को कैसे समायोजित करूं ताकि ट्रांसपोज़र कनवॉल्यूशन इनपुट के समान आकार के आकार को आउटपुट करेगा।
DeConnv1 = tf.nn.conv3d_transpose(layer1, filter = w, output_shape = [1,32,32,7,1], strides = [1,2,2,2,1], padding = 'SAME')
आम तौर पर, आपको प्रशिक्षण और अनुमान दोनों के लिए अपनी वर्गीकरण प्रणाली में डेटा प्राप्त करने के लिए उसी पाइपलाइन का उपयोग करना चाहिए। आप 32x32x7 छवियों को कैसे उत्पन्न करते हैं? अपने कार्य के बावजूद अपनी वर्गीकरण प्रणाली में डेटा प्राप्त करने के लिए उसी तकनीक का उपयोग करें। – RagingRoosevelt