2017-07-18 10 views
6

मैं चाहता हूं कि मेरा मॉडल एकाधिक जीपीयू साझा करने वाले पैरामीटर पर चल रहा हो लेकिन डेटा के विभिन्न बैचों के साथ।केरास के साथ बहु जीपीयू प्रशिक्षण कैसे करें?

क्या मैं ऐसा कुछ कर सकता हूं model.fit() के साथ? क्या कोई और विकल्प है?

उत्तर

0

केरास अब keras.utils.multi_gpu_model का उपयोग करते हुए, एकाधिक जीपीयू में डिवाइस समांतरता के लिए अंतर्निर्मित समर्थन के रूप में (v2.0.9 के रूप में) है।

वर्तमान में, केवल टेन्सफोर्लो बैक-एंड का समर्थन करता है।

अच्छा उदाहरण यहाँ (दस्तावेज़): https://keras.io/getting-started/faq/#how-can-i-run-a-keras-model-on-multiple-gpus इसके अलावा यहां शामिल: https://datascience.stackexchange.com/a/25737

संबंधित मुद्दे