tf-slim

    6गर्मी

    1उत्तर

    में परत वजन का उपयोग करना मैं एक ऑटोनकोडर को लागू करने के लिए tf.slim का उपयोग कर रहा हूं। मैं निम्नलिखित वास्तुकला के साथ पूरी तरह से convolutional है: [conv, outputs = 1] => [conv, outputs = 15] =>

    6गर्मी

    1उत्तर

    टेन्सफोर्लो स्लिम लाइब्रेरी एलेक्सनेट के लिए ग्राफ संरचना प्रदान करती है, हालांकि ऐसा लगता है कि यह पूर्व-प्रशिक्षित (इमेजनेट पर) एलेक्सनेट चेकपॉइंट (https://github.com/tensorflow/models/tree/master/r

    5गर्मी

    1उत्तर

    (1) मैं फ़ाइन-ट्यून लोड हो रहा है द्वारा TFSlim का उपयोग कर एक VGG16 नेटवर्क fc8 परत को छोड़कर सभी परतों में वजन pretrained कोशिश कर रहा हूँ। मैं इस प्रकार TF-पतला फ़ंक्शन का उपयोग कर यह उपलब्धि हासिल

    8गर्मी

    3उत्तर

    मैं कुछ अलग-अलग मॉडल को लागू करने और CIFAR-10 पर उन्हें प्रशिक्षित करने के लिए कोशिश कर रहा हूँ में train_loop साथ evaluation_loop उपयोग करने के लिए, और मैं TF-पतला उपयोग करने के लिए ऐसा करना चाहते है

    9गर्मी

    1उत्तर

    उदाहरण के लिए, मैंने अपने परिचालनों को बनाने के बाद, ऑपरेशन के माध्यम से बैच डेटा खिलाया और ऑपरेशन चलाया, क्या tf.train.batch स्वचालित रूप से सत्र के डेटा के दूसरे बैच में फ़ीड करता है? मैं यह पूछता ह