मैं स्पार्क 1.6.0 का उपयोग तीन वीएम, 1 एक्स मास्टर (स्टैंडअलोन), 2 एक्स श्रमिक डब्ल्यू/8 जी रैम, 2 सीसीयू प्रत्येक पर कर रहा हूं।जुपीटर और पायस्पार्क: एकाधिक नोटबुक कैसे चलाएं
मैं नीचे गिरी विन्यास का उपयोग कर रहा:
{
"display_name": "PySpark ",
"language": "python3",
"argv": [
"/usr/bin/python3",
"-m",
"IPython.kernel",
"-f",
"{connection_file}"
],
"env": {
"SPARK_HOME": "<mypath>/spark-1.6.0",
"PYTHONSTARTUP": "<mypath>/spark-1.6.0/python/pyspark/shell.py",
"PYSPARK_SUBMIT_ARGS": "--master spark://<mymaster>:7077 --conf spark.executor.memory=2G pyspark-shell --driver-class-path /opt/vertica/java/lib/vertica-jdbc.jar"
}
}
वर्तमान में, यह काम करता है। मैं स्पार्क संदर्भ sc
& sqlContext
आयात के बिना, पाइस्पार्क खोल में उपयोग कर सकता हूं।
समस्या तब आती है जब मैं एकाधिक नोटबुक का उपयोग करता हूं: मेरे स्पार्क मास्टर पर मैं दो 'pyspark-shell' ऐप्स देखता हूं, जो कि थोड़े समझ में आता है, लेकिन केवल एक ही समय में चला सकता है। लेकिन यहां, 'रनिंग' का मतलब कुछ भी निष्पादित करने का नहीं है, भले ही मैं नोटबुक पर कुछ भी नहीं चलाता, यह 'चल रहा' के रूप में दिखाया जाएगा। यह देखते हुए, मैं अपने संसाधनों को नोटबुक के बीच साझा नहीं कर सकता, जो काफी दुखी है (मुझे वर्तमान में दूसरा खोलने के लिए पहले खोल (= नोटबुक कर्नेल) को मारना है)।
यदि आपके पास ऐसा करने के बारे में कोई विचार है, तो मुझे बताएं! इसके अलावा, मुझे यकीन नहीं है कि जिस तरह से मैं कर्नेल के साथ काम कर रहा हूं वह 'सर्वोत्तम अभ्यास' है, मुझे पहले से ही स्पार्क & जुपीटर को एक साथ काम करने में परेशानी थी।
Thx सब
@AlbertoBonsanto कि कैसे संगामिति समस्याओं का समाधान होगा? :) – eliasah
@eliasah यह निश्चित रूप से नहीं होगा। कुछ सलाह पाने के लिए अभी भी बहुत अच्छा है: पी – pltrdy
क्या आप स्पार्क कॉन्टेक्स्ट साझा करना चाहते हैं? – eliasah