2012-10-26 10 views
5

मैं थाउप स्थापित करने के लिए एक ट्यूटोरियल का पालन कर रहा था: http://www.michael-noll.com/tutorials/running-hadoop-on-ubuntu-linux-single-node-cluster/ अब मैं "स्थानीय उदाहरण डेटा को एचडीएफएस में कॉपी करें" चरण में फंस गया हूं।पुट/कॉपी के साथ हैंडऑप कनेक्ट त्रुटि

कनेक्शन त्रुटि मैं:

<12/10/26 17:29:16 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 
12/10/26 17:29:17 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 
12/10/26 17:29:18 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 
12/10/26 17:29:19 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 
12/10/26 17:29:20 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 
12/10/26 17:29:21 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 
12/10/26 17:29:22 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 
12/10/26 17:29:23 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 7 time(s). 
12/10/26 17:29:24 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 
12/10/26 17:29:25 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 
Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

जो काफी पहले से ही इस सवाल का एक ही है: Errors while running hadoop

बिंदु अब है, मैं ivp6 निष्क्रिय कर दिया है के रूप में वहाँ और में वर्णित है, ट्यूटोरियल के ऊपर, लेकिन यह मदद नहीं करता है। क्या मुझे कुछ याद आ रही है? किसी भी मदद के लिए धन्यवाद!

संपादित करें:

मैं एक ताजा Unbuntu स्थापित किया है और यह चरण दर चरण की तुलना के साथ ट्यूटोरियल वॉन एक दूसरी मशीन को दोहराया। यह निकला, hduser की bashrc विन्यास में कुछ बग था। इसके बाद यह ठीक काम करता है ...

उत्तर

4

अगर मैं Hadoop fs <anything> करने की कोशिश करता हूं तो मुझे सही त्रुटि संदेश मिलता है जब DataNode/NameNode नहीं चल रहा है, तो मुझे लगता है कि यह आपके लिए भी हो रहा है।

अपने टर्मिनल में jps टाइप करें।

16022 DataNode 
16524 Jps 
15434 TaskTracker 
15223 JobTracker 
15810 NameNode 
16229 SecondaryNameNode 

मैं दांव लगाना होगा आप कर रहे हैं कि DataNode या NameNode नहीं चल रहा है: सब कुछ चल रहा है, यह की तरह दिखना चाहिए। यदि जेपीएस के प्रिंट आउट से कुछ भी गुम है, तो इसे फिर से शुरू करें।

+0

नोड्स ताकि नहीं दिया, चल गया था समस्या नहीं है। लेकिन अब तक मुझे परेशानी मिली, वैसे भी मदद के लिए धन्यवाद! – kumoyadori

+0

समस्या क्या थी? – parisa

0

पूरे विन्यास के बाद इस आदेश

start-all.sh

यह आपकी समस्या का समाधान होगा द्वारा इस आदेश

Hadoop namenode -formate

और शुरू सेवाओं देना

0
  1. अपने आदि/hadoop/core-site.xml पर जाएं। fs.default.name के लिए मान की जांच करें जैसा कि नीचे दिखाया गया है। { fs.default.name HDFS: // स्थानीय होस्ट: 54310 }
  2. पूरे विन्यास के बाद इस आदेश

Hadoop namenode देना -format

  1. इस आदेश द्वारा सभी सेवाओं को शुरू करें

start-all.sh

इससे आपकी समस्या हल हो जाएगी।

आपका namenode सुरक्षित मोड में हो सकता है, को चलाने bin/HDFS dfsadmin -safemode छोड़ या bin/Hadoop dsfadmin -safemode तो छोड़ चरण का पालन करें - 2 और कदम -3

संबंधित मुद्दे