मैं तंत्रिका नेटवर्क के क्षेत्र में नया हूं और मैं डीप विश्वास नेटवर्क और कनवॉल्यूशनल नेटवर्क के बीच अंतर जानना चाहता हूं। इसके अलावा, क्या एक गहरी संवहनी नेटवर्क है जो गहरी विश्वास और कनवॉल्यूशनल न्यूरल नेट का संयोजन है?डीप विश्वास नेटवर्क बनाम कनवॉल्यूशनल न्यूरल नेटवर्क
यही वह है जो मैंने अभी तक एकत्र किया है। अगर मैं गलत हूं कृपया मुझे सही।
एक छवि वर्गीकरण समस्या के लिए, दीप विश्वास नेटवर्क में कई परतें हैं, जिनमें से प्रत्येक को लालची परत-वार रणनीति का उपयोग करके प्रशिक्षित किया जाता है। उदाहरण के लिए, मेरी छवि आकार 50 x 50 है, और मैं एक गहरी नेटवर्क चाहते हैं 4 परतों अर्थात्
- इनपुट परत
- छिपा परत 1 (HL1)
- छिपा परत 2 (HL2) साथ करता है, तो
- आउटपुट लेयर
मेरे इनपुट परत 50 x 50 = 2500 न्यूरॉन्स होगा, HL1 = 1000 न्यूरॉन्स (कहते हैं), HL2 = 100 न्यूरॉन्स (कहते हैं) और आउटपुट परत = 10 न्यूरॉन्स, आदेश को प्रशिक्षित करने में भार (डब्ल्यू 1) हो टिन इनपुट लेयर और एचएल 1, मैं एक ऑटोइन्कोडर (2500 - 1000 - 2500) का उपयोग करता हूं और आकार 2500 x 1000 के आकार में सीखता हूं (यह असुरक्षित शिक्षा है)। फिर मैं सुविधाओं के एक सेट को प्राप्त करने के लिए पहली छिपी हुई परतों के माध्यम से सभी छवियों को आगे खिलाता हूं और फिर सुविधाओं का अगला सेट प्राप्त करने के लिए एक और ऑटोनकोडर (1000 - 100 - 1000) का उपयोग करता हूं और अंततः वर्गीकरण के लिए सॉफ्टमैक्स परत (100 - 10) का उपयोग करता हूं। (केवल अंतिम परत के वजन सीखना (एचएल 2 - आउटपुट जो सॉफ्टमैक्स परत है) पर्यवेक्षित शिक्षा है)।
(मैं ऑटोकोडर के बजाय आरबीएम का उपयोग कर सकता हूं)।
यदि कन्वोल्यूशनल न्यूरल नेटवर्क का उपयोग करके एक ही समस्या हल हो गई, तो 50x50 इनपुट छवियों के लिए, मैं केवल 7 x 7 पैच (कहें) का उपयोग करके नेटवर्क विकसित करूंगा। मेरे परतों
- इनपुट लेयर (7 x 7 = 49 न्यूरॉन्स)
- HL1 (25 विभिन्न सुविधाओं के लिए 25 न्यूरॉन्स) हो सकता है - (घुमाव परत)
- पूलिंग लेयर
- आउटपुट लेयर (Softmax)
और वजन सीखने के लिए, मैं 50 x 50 आकार की छवियों से 7 x 7 पैच लेता हूं, और संकल्पक परत के माध्यम से आगे फ़ीड करता हूं, इसलिए मेरे पास प्रत्येक आकार के 25 अलग-अलग फीचर मैप्स होंगे (50 - 7 + 1) एक्स (50 - 7 + 1) = 44 x 44.
मैं पूलिंग हाथ के लिए 11x11 की एक विंडो का उपयोग करता हूं इसलिए पूलिंग परत के आउटपुट के लिए 25 फीचर मैप्स आकार (4 x 4) प्राप्त करें। मैं वर्गीकरण के लिए इन फीचर मैप्स का उपयोग करता हूं।
वजन सीखते समय, मैं परत विश्वास रणनीति का उपयोग डीप विश्वास नेटवर्क (अप्रशिक्षित लर्निंग) में नहीं करता, बल्कि इसके बजाय पर्यवेक्षित शिक्षा का उपयोग करता हूं और सभी परतों के वजन को एक साथ सीखता हूं। क्या यह सही है या वजन सीखने का कोई और तरीका है?
क्या मैं सही समझ गया हूं?
इसलिए यदि मैं छवि वर्गीकरण के लिए डीबीएन का उपयोग करना चाहता हूं, तो मुझे अपनी सभी छवियों को किसी विशेष आकार (200x200 कहें) में बदलना चाहिए और इनपुट परत में कई न्यूरॉन्स हैं, जबकि सीएनएन के मामले में, मैं केवल ट्रेन पर ट्रेन करता हूं इनपुट के छोटे पैच (आकार 200x200 की छवि के लिए 10 x 10 कहें) और पूरी छवि पर सीखे वजन को हल करें?
क्या डीबीएन सीएनएन की तुलना में बेहतर परिणाम प्रदान करते हैं या यह डेटासेट पर पूरी तरह से निर्भर है?
धन्यवाद।
आप dsp.stackexchange में भी पूछ सकते हैं। एक बेहतर जवाब मिल सकता है। – GilLevi