2012-12-06 10 views
6

मैं हडूप की सीडीएच 4 स्थापना स्थापित करने की कोशिश कर रहा हूं। मेरे पास 12 मशीनें हैं, labled hadoop01 - hadoop12, और namenode, job tracker, और सभी डेटा नोड्स ठीक शुरू हो गए हैं। मैं dfshealth.jsp को देखने में सक्षम हूं और देखता हूं कि यह सभी डेटा नोड्स मिला है।सीडीएच 4 माध्यमिक नाम नोड शुरू करने में असमर्थ: नाम नोड पते के लिए अमान्य यूआरआई

Starting Hadoop secondarynamenode:       [ OK ] 
starting secondarynamenode, logging to /var/log/hadoop-hdfs/hadoop-hdfs-secondarynamenode-hadoop02.dev.terapeak.com.out 
Exception in thread "main" java.lang.IllegalArgumentException: Invalid URI for NameNode address (check fs.defaultFS): file:/// has no authority. 
     at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:324) 
     at org.apache.hadoop.hdfs.server.namenode.NameNode.getAddress(NameNode.java:312) 
     at org.apache.hadoop.hdfs.server.namenode.NameNode.getServiceAddress(NameNode.java:305) 
     at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.initialize(SecondaryNameNode.java:222) 
     at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.<init>(SecondaryNameNode.java:186) 
     at org.apache.hadoop.hdfs.server.namenode.SecondaryNameNode.main(SecondaryNameNode.java:578) 

यह मेरा माध्यमिक नाम नोड पर HDFS-site.xml फ़ाइल है::

बहरहाल, जब भी मैं माध्यमिक नाम नोड प्रारंभ करने का प्रयास यह एक अपवाद देता

<configuration> 
    <property> 
    <name>dfs.name.dir</name> 
    <value>/data/1/dfs/nn</value> 
    </property> 
    <property> 
    <name>dfs.namenode.http-address</name> 
    <value>10.100.20.168:50070</value> 
    <description> 
     The address and the base port on which the dfs NameNode Web UI will listen. 
     If the port is 0, the server will start on a free port. 
    </description> 
    </property> 
    <property> 
    <name>dfs.namenode.checkpoint.check.period</name> 
    <value>3600</value> 
    </property> 
    <property> 
    <name>dfs.namenode.checkpoint.txns</name> 
    <value>40000</value> 
    </property> 
    <property> 
    <name>dfs.namenode.checkpoint.dir</name> 
    <value>/var/lib/hadoop-hdfs/cache</value> 
    </property> 
    <property> 
    <name>dfs.namenode.checkpoint.edits.dir</name> 
    <value>/var/lib/hadoop-hdfs/cache</value> 
</property> 
<property> 
    <name>dfs.namenode.num.checkpoints.retained</name> 
    <value>1</value> 
    </property> 
<property> 
    <name>mapreduce.jobtracker.restart.recover</name> 
    <value>true</value> 
    </property> 

</configuration> 

यह ऐसा लगता है कि dfs.namenode.http-address को दिए गए मान के साथ कुछ गलत है, लेकिन मुझे यकीन नहीं है कि क्या। क्या यह http: // या hdfs: // से शुरू होना चाहिए? मैंने लिंक्स में 10.100.20.168:520070 को कॉल करने का प्रयास किया और यह एक पृष्ठ प्रदर्शित किया। कोई विचार?

उत्तर

7

ऐसा लगता है कि मैं माध्यमिक नाम नोड पर core-site.xml कॉन्फ़िगरेशन खो रहा था। जोड़ा गया और प्रक्रिया ठीक से शुरू हुई।

कोर-site.xml:

<configuration> 
<property> 
    <name>fs.defaultFS</name> 
    <value>hdfs://10.100.20.168/</value> 
</property> 
</configuration> 
+5

सेट करके संशोधित हो गया है यदि मुझे स्टैंड-अलोन मोड में एक ही त्रुटि मिल रही है (मेरी लैपटॉप से ​​पूरी चीज चल रही है? मेरी कोर साइट.एक्सएमएल में यह प्रविष्टि है: ' fs.default.name HDFS: // स्थानीय होस्ट: 8020 ' –

+0

मेरे मामले में यह काम किया जब मैं बंदरगाह हटा दिया है। इस प्रकार तो स्टैंड-अलोन स्थापना के लिए मेरी कोर-site.xml दिखता है: <विन्यास> fs.defaultFS HDFS: // स्थानीय होस्ट/

1

आप एक ही नोड क्लस्टर चला रहे हैं, तो सुनिश्चित करें कि आप HADOOP_PREFIX चर लिंक में संकेत के रूप में स्थापित किया है सही ढंग से: http://hadoop.apache.org/docs/current/hadoop-project-dist/hadoop-common/SingleCluster.html

यहां तक ​​कि मैं का सामना करना पड़ा आपके वही मुद्दे और यह वैरिएबल

संबंधित मुद्दे