2011-12-14 28 views
7
[email protected]:/usr/local/hadoop$ bin/hadoop dfs -copyFromLocal /tmp/input 
/user/haduser/input 

11/12/14 14:21:00 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 0 time(s). 

11/12/14 14:21:01 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 1 time(s). 

11/12/14 14:21:02 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 2 time(s). 

11/12/14 14:21:03 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 3 time(s). 

11/12/14 14:21:04 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 4 time(s). 

11/12/14 14:21:05 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 5 time(s). 

11/12/14 14:21:06 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 6 time(s). 

11/12/14 14:21:07 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. -Already tried 7 time(s). 

11/12/14 14:21:08 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 8 time(s). 

11/12/14 14:21:09 INFO ipc.Client: Retrying connect to server: localhost/127.0.0.1:54310. Already tried 9 time(s). 

Bad connection to FS. command aborted. exception: Call to localhost/127.0.0.1:54310 failed on connection exception: java.net.ConnectException: Connection refused 

चलाते समय मैं ऊपर त्रुटियों जब मैं /tmp/input से /user/haduser/input पर फ़ाइलों की प्रतिलिपि करने के लिए भले ही फ़ाइल /etc/hosts स्थानीय होस्ट के लिए प्रविष्टि कोशिश कर रहा हूँ हो रही है। जब jps command चलाया जाता है, TaskTracker और namenode सूचीबद्ध नहीं हैं।त्रुटियाँ Hadoop

समस्या क्या हो सकती है? कृपया कोई मेरी मदद करें।

उत्तर

1

नाम नोड (एनएन) एचडीएफएस के लिए नेमस्पेस बनाए रखता है और इसे एचडीएफएस पर फाइल सिस्टम ऑपरेशंस के लिए चलाना चाहिए। लॉग इन करें कि एनएन क्यों शुरू नहीं हुआ है। एचडीएफएस पर संचालन के लिए टास्कट्रैकर की आवश्यकता नहीं है, केवल एनएन और डीएन पर्याप्त हैं। http://goo.gl/8ogSk और http://goo.gl/NIWoK एक एकल और बहु ​​नोड पर हडोप को कैसे सेट अप करें इस पर ट्यूटोरियल देखें।

+0

मैंने स्थापना के लिए एक ही लिंक का पालन किया है। लेकिन अभी भी त्रुटियां हो रही हैं। –

+0

ठीक है - लॉग जांचें कि एनएन क्यों शुरू नहीं हुआ है। –

+0

मैं $ bin/hadoop namenode -format कमांड का उपयोग कर नामनोड को प्रारूपित करने में सक्षम नहीं था। क्या यही कारण है कि नामनोड शुरू नहीं हो रहा है? –

1

बिन में सभी फ़ाइलें निष्कर्ष निकाले गए हैं। बस कमांड कॉपी करें और टर्मिनल में पेस्ट करें। सुनिश्चित करें कि पता सही है, यानी उपयोगकर्ता को कुछ से बदला जाना चाहिए। वह चाल करेगा।

9

मेरे पास समान समस्याएं थीं - दरअसल हडोप आईपीवी 6 के लिए बाध्यकारी था। तो मैं जोड़ा - "export HADOOP_OPTS=-Djava.net.preferIPv4Stack=true" $HADOOP_HOME/conf/hadoop-env.sh Hadoop के लिए

आईपीवी 6 के लिए बाध्य किया गया था, तब भी जब मैं अपने सिस्टम पर IPv6 अक्षम कर दिया था। एक बार जब मैंने इसे env में जोड़ा, तो ठीक काम करना शुरू कर दिया।

उम्मीद है कि यह किसी की मदद करेगा।

3

इस मामले में, अपने स्थानीय आईपी का उपयोग कर प्रणाली के लिए ssh करने की कोशिश करें:

$ ssh 127.0.0.1

एक बार जब आप ssh सफलतापूर्वक करने के लिए सक्षम हैं। नीचे दिए गए आदेश चलाएं खुला बंदरगाहों

की सूची को पता है

~ $ lsof मैं के साथ नाम एक सुन कनेक्टर के लिए

देखो: स्थानीय होस्ट: < PORTNAME> (सुनो)

प्रतिलिपि इस < PORTNAME> और हैडऑप conf फ़ोल्डर

कोर-साइट.एक्सएमएल को सहेजने के लिए fs.default.name प्रॉपर्टी में fs.default.name प्रॉपर्टी के टैग में पोर्ट नंबर के मौजूदा मान को प्रतिस्थापित करें, इससे समस्या हल होनी चाहिए।

संबंधित मुद्दे