5

के लिए जीपीयू मेमोरी के एक अंश का उपयोग करके मेरे पास तैनाती के लिए मेरे निपटारे में एक जीपीयू है लेकिन कई मॉडलों को तैनात करने की आवश्यकता है। मैं पहले जीपीयू मेमोरी को पहले तैनात मॉडल में आवंटित नहीं करना चाहता क्योंकि तब मैं अपने बाद के मॉडल को तैनात नहीं कर सकता। प्रशिक्षण के दौरान, इसे gpu_memory_fraction पैरामीटर का उपयोग करके नियंत्रित किया जा सकता है। मैं निम्न आदेश का उपयोग कर रहा अपने मॉडल को तैनात करने की -टेन्सफोर्लो सेवा: प्रत्येक मॉडल

tensorflow_model_server --port=9000 --model_name=<name of model> --model_base_path=<path where exported models are stored &> <log file path>

वहाँ एक ध्वज है कि मैं GPU स्मृति आवंटन को नियंत्रित करने के लिए सेट कर सकते हैं?

धन्यवाद

+1

करता है [इस] (https://stackoverflow.com/questions/34199233/how-to-prevent-tensorflow-from-allocating- में झंडा per_process_gpu_memory_fraction सेट करने की अनुमति सेवित -कुल-ए-जीपीयू-मेमोरी? आरक्यू = 1) मदद? – Imran

+1

@ इमरान नहीं, मेरी क्वेरी tensorflow सेवारत के अंदर स्मृति आवंटन के संबंध में है। – dragster

+0

आप यहां एक खुली बग https://github.com/tensorflow/serving/issues/249 पा सकते हैं। Tldr; ऐसा कोई विकल्प प्रतीत नहीं होता है और गारंटी है कि आपको मैन्युअल रूप से विकल्प बदलना होगा और बाइनरी को दोबारा जोड़ना होगा जैसा कि मैंने पोस्ट किए गए पोस्ट में समझाया है। – rajat

उत्तर

संबंधित मुद्दे