2015-06-14 5 views
17

स्थापित अपाचे-Maven-3.3.3, स्केला 2.11.6, तो भाग गया:'SPARK_HOME` को सेट करने के लिए क्या करें?

$ git clone git://github.com/apache/spark.git -b branch-1.4 
$ cd spark 
$ build/mvn -DskipTests clean package 
अंत में

:

$ bin/zeppelin-daemon.sh start 

एक सरल चल रहा है:

$ git clone https://github.com/apache/incubator-zeppelin 
$ cd incubator-zeppelin/ 
$ mvn install -DskipTests 

फिर सर्वर भाग गया %pyspark से शुरू होने वाली नोटबुक, मुझे py4j नहीं मिला है। बस pip install py4j (ref) किया था। /spark/python:/spark/python/lib:

pyspark is not responding Traceback (most recent call last): 
    File "/tmp/zeppelin_pyspark.py", line 22, in <module> 
    from pyspark.conf import SparkConf 
ImportError: No module named pyspark.conf 

मैं अपने SPARK_HOME के लिए सेटिंग की कोशिश की है:

अब मैं इस त्रुटि मिल रही है। कोई परिवर्तन नहीं होता है।

उत्तर

25

दो वातावरण चर की आवश्यकता है:

SPARK_HOME=/spark 
PYTHONPATH=$SPARK_HOME/python:$SPARK_HOME/python/lib/py4j-VERSION-src.zip:$PYTHONPATH 
+0

बिल्कुल सही है, धन्यवाद। –

संबंधित मुद्दे