मैंने अभी टेंसरफ्लो के साथ खेलना शुरू कर दिया है और मैं एक बहुत ही सरल आरएनएन लागू करने की कोशिश कर रहा हूं। आरएनएन में x
इनपुट के रूप में y
आउटपुट के रूप में है और इसमें केवल एक ही परत होती है जो x
लेती है और यह इनपुट के रूप में पिछली आउटपुट होती है। यहाँ मैं मन में है बात की तरह की एक तस्वीर है:TensorFlow में आलेख में एक चक्र के साथ एक साधारण आरएनएन कैसे बनाया जाए?
समस्या है, मैं इसे में एक चक्र के साथ एक ग्राफ के निर्माण के लिए TensorFlow एपीआई के माध्यम से किसी भी तरह से नहीं देख सकता। जब भी मैं एक टेंसर परिभाषित करता हूं, मुझे यह निर्दिष्ट करना होता है कि यह इनपुट क्या है, जिसका अर्थ है कि मुझे पहले से ही इसके इनपुट को परिभाषित करना होगा। तो एक चिकन-एंड-अंडे की समस्या है।
मुझे यह भी नहीं पता कि क्या यह एक चक्र के साथ ग्राफ को परिभाषित करना चाहता है (पहले क्या गणना की जाती है? क्या मुझे सॉफ्टमैक्स नोड का प्रारंभिक मान परिभाषित करना होगा?)। मैंने पिछले आउटपुट का प्रतिनिधित्व करने के लिए एक चर का उपयोग करने के विचार के साथ खेला और फिर मैन्युअल रूप से y
का मान लें और इसे प्रशिक्षण नमूना के माध्यम से हर बार चर में स्टोर करें। लेकिन यह बहुत धीमा होगा जब तक कि ग्राफ में इस प्रक्रिया का प्रतिनिधित्व करने का कोई तरीका न हो (?)।
मुझे पता है कि टेंसरफ्लो ट्यूटोरियल आरएनएन के उदाहरण कार्यान्वयन दिखाते हैं लेकिन वे लाइब्रेरी से एलएसटीएम मॉड्यूल को धोखा देते हैं और खींचते हैं जिसमें पहले से ही चक्र है। कुल मिलाकर ट्यूटोरियल कुछ चीजों को बनाने के तरीके के माध्यम से आपको कदम उठाने के लिए अच्छे हैं लेकिन वे यह समझाने का बेहतर काम कर सकते हैं कि यह जानवर वास्तव में कैसे काम करता है।
तो, टेंसरफ्लो विशेषज्ञ, क्या इस चीज़ को बनाने का कोई तरीका है? मैं इसे करने के बारे में कैसे जाउंगा?
आपका वैरिएबल विचार जाने का तरीका लगता है, यदि आप टेंसरफ्लो वैरिएबल/असाइन ऑप्स –
का उपयोग करते हैं तो धीमा नहीं होना चाहिए, लेकिन मुझे 'sess.run (y_prev.assign (y)) 'और चलाने के लिए नहीं करना होगा एक समय में एक के माध्यम से नमूने? या क्या आपका मतलब है कि मुझे इसे @Ishamael द्वारा वर्णित अनियंत्रित रणनीति के साथ जोड़ना चाहिए? – Shum