मैंने python module बनाया और मैं इसे अपने pyspark एप्लिकेशन में आयात करना चाहता हूं।pyspark आयात उपयोगकर्ता परिभाषित मॉड्यूल या .py फ़ाइलें
मेरे पैकेज निर्देशिका संरचना है:
wesam/
|-- data.py
`-- __init__.py
एक साधारण import wesam
मेरी pyspark स्क्रिप्ट के शीर्ष पर ImportError: No module named wesam
की ओर जाता है। मैंने इसे ज़िप करने की कोशिश की और इसे --py-files
के साथ recommended in this answer के साथ अपने कोड के साथ शिप किया, बिना किस्मत के।
./bin/spark-submit --py-files wesam.zip mycode.py
मैं भी प्रोग्राम के रूप में के रूप में this answer ने सुझाव दिया फ़ाइल जोड़ा है, लेकिन मैं एक ही ImportError: No module named wesam
त्रुटि मिली।
.sc.addPyFile("wesam.zip")
मैं यहाँ क्या याद आ रही है?
यह बहुत ही स्पष्ट और उपयोगी है उदाहरण के लिए, इन उदाहरणों में बहस के आदेश पर ध्यान दें। धन्यवाद! – watsonic
हालांकि यह काम कर सकता है, आप प्रभावी रूप से अपने (संभवतः) विश्व स्तर पर $ HOME/.bashrc के माध्यम से अपने env को प्रभावी ढंग से घुमा रहे हैं। क्या कार्यकर्ता मॉड्यूल के PYTHONPATH को गतिशील रूप से सेट करने का कोई तरीका नहीं है? कारण आप ऐसा करना चाहते हैं कि आप ipython REPL से बातचीत कर रहे हैं और समानांतर नौकरियां शिप करना चाहते हैं जो PYTHONPATH में NFS पर बैठे मॉड्यूल पर निर्भर करते हैं (सोच पाइथन setup.py विकसित मोड)। – mathtick