mpi

    5गर्मी

    1उत्तर

    तो मेरे पास gmsh के साथ एक ट्रोबूल है। प्रत्यक्ष निष्पादन ठीक काम करता है: !gmsh -3 -algo meshadapt tmp_0.geo -o SFM.msh जबकि कोड से निष्पादन विफल रहता है: try: out = subprocess.check_output(

    5गर्मी

    1उत्तर

    COMPSs एप्लिकेशन सबमिट करने के बाद मुझे निम्न त्रुटि संदेश प्राप्त हुआ है और एप्लिकेशन निष्पादित नहीं किया गया है। MPI_CMD=mpirun -timestamp-output -n 1 -H s00r0 /apps/COMPSs/1.3/Runtime/scripts/user

    5गर्मी

    1उत्तर

    मैं निम्न उदाहरण के लिए अपने कार्यक्रम को कम कर दिया में एक विभाजन गलती का कारण क्यों मैं MPI_Barrier पर टिप्पणी करता हूं, या प्रोग्राम को केवल एक नोड पर चलाता हूं, कोड ठीक चलता है। मैं निम्नलिखित com

    10गर्मी

    2उत्तर

    मैं अपने कुबर्नेट्स क्लस्टर पर एक एमपीआई नौकरी चलाने के लिए चाहता हूं। संदर्भ यह है कि मैं वास्तव में एक आधुनिक, अच्छी तरह से कंटेनरकृत ऐप चला रहा हूं लेकिन वर्कलोड का हिस्सा एक विरासत एमपीआई नौकरी है

    9गर्मी

    2उत्तर

    यह प्रोग्राम सी लग्रेंज और एमपीआई का उपयोग करके लिखा गया है। मैं एमपीआई के लिए नया हूं और प्रक्रियाओं समेत कुछ गणना करने के लिए सभी प्रोसेसर का उपयोग करना चाहता हूं। इस अवधारणा को जानने के लिए, मैंने

    7गर्मी

    1उत्तर

    मुझे लगभग 3 चीजें उलझन में मिलीं: mpirun, mpiexec और mpiexec.hydra मेरे क्लस्टर पर, वे सभी मौजूद हैं, और वे सभी इंटेल के हैं। उनके बीच क्या अंतर और संबंध है? विशेष रूप से, पृथ्वी पर क्या mpiexec.hydra

    5गर्मी

    3उत्तर

    मैं निम्नलिखित कार्यक्रम सी ++ प्रोग्राम है जो कोई संचार का उपयोग करता है, और एक ही समान काम सभी कोर पर किया जाता है है, मुझे पता है कि इस सब पर समानांतर प्रसंस्करण का उपयोग नहीं करता: unsigned n = 13

    5गर्मी

    2उत्तर

    मैं प्रक्रिया 0 से प्रक्रिया 0 से डेटा भेजने की कोशिश कर रहा हूं। यह प्रोग्राम सफल होता है जब बफर आकार 64kb से कम होता है, लेकिन अगर बफर बहुत बड़ा हो जाता है तो लटकता है। निम्नलिखित कोड इस समस्या को प

    5गर्मी

    3उत्तर

    मान लीजिए कि T एक पीओडी प्रकार है जिसमें पॉइंटर नहीं होता है, और मैं टी को क्रमबद्ध करना चाहता हूं (कुछ अन्य डेटा के अलावा)। मैंने यह करने के लिए नीचे दिए गए फ़ंक्शंस बनाए हैं: template<class T> void

    8गर्मी

    2उत्तर

    आमतौर पर जब मैं mpirun का उपयोग करता हूं, तो मैं अपने कंप्यूटर पर वास्तव में अधिक प्रोसेसर का उपयोग करके इसे "ओवरलोड" कर सकता हूं। उदाहरण के लिए, मेरे चार-कोर मैक पर, मैं mpirun -np 29 python -c "prin