2013-11-25 4 views
13

मेरे पास अपना खुद का मैपराइडस कोड है जिसे मैं चलाने की कोशिश कर रहा हूं, लेकिन यह स्वीकार्य स्थिति पर रहता है। मैंने एक और नमूना एमआर नौकरी चलाने की कोशिश की जिसे मैं पहले चलाऊंगा और जो सफल था। लेकिन अब, दोनों नौकरियां स्वीकृत राज्य में रहती हैं। मैंने mapred-site.xml और yarn-site.xml में विभिन्न गुणों को बदलने की कोशिश की है जैसा कि here और here बताया गया है, लेकिन इससे कोई मदद नहीं मिली। क्या कोई यह बता सकता है कि संभवतः गलत क्या हो सकता है। मैं उपयोग कर रहा हूँ Hadoop-2.2.0मैपरीडस नौकरियां स्वीकृत राज्य में फंस गई हैं

मैं विभिन्न गुणों के लिए कई मूल्यों की कोशिश की है, यहाँ एक values- के सेट mapred-site.xml

<property> 
<name>mapreduce.job.tracker</name> 
<value>localhost:54311</value> 
</property> 

<property> 
<name>mapreduce.job.tracker.reserved.physicalmemory.mb</name> 
<value></value> 
</property> 

<property> 
<name>mapreduce.map.memory.mb</name> 
<value>256</value> 
</property> 

<property> 
<name>mapreduce.reduce.memory.mb</name> 
<value>256</value> 
</property> 


<property> 
<name>yarn.app.mapreduce.am.resource.mb</name> 
<value>400</value> 
<source>mapred-site.xml</source> 
</property> 

में यार्न साइट में है। एक्सएमएल

<property> 
<name>yarn.nodemanager.resource.memory-mb</name> 
<value>400</value> 
<source>yarn-site.xml</source> 
</property> 
<property> 
<name>yarn.scheduler.capacity.maximum-am-resource-percent</name> 
<value>.3</value> 
</property> 
+0

कृपया सटीक मान आप उन विकल्पों के लिए निर्धारित किया है पोस्ट शुरू कर दिया। –

उत्तर

11

मैं एक ही प्रभाव नहीं पड़ा और पाया कि सिस्टम बन गया है और अधिक स्मृति कार्यकर्ता प्रति नोड उपलब्ध है और स्मृति एक आवेदन के लिए आवश्यक मदद की कम हो गए हैं।

मेरी यार्न-site.xml में मैं (मेरे बहुत छोटे प्रयोगात्मक बक्से पर) है सेटिंग:

<property> 
    <name>yarn.nodemanager.resource.memory-mb</name> 
    <value>2200</value> 
    <description>Amount of physical memory, in MB, that can be allocated for containers.</description> 
</property> 

<property> 
    <name>yarn.scheduler.minimum-allocation-mb</name> 
    <value>500</value> 
</property> 
+0

मैं एक हडोप नौसिखिया हूँ। क्या आप कृपया मुझे बता सकते हैं कि ऐसा करने के लिए कैसे जाना है? उत्तर देने के लिए बहुत धन्यवाद! – user1571307

+1

यह काम करता है, इसे और रैम दें। – AlexandruC

+0

यह सेटिंग्स भी मेरे लिए काम नहीं करती हैं। मैं yache-site.xml के लिए apache hadoop 2.8.0 वितरण और सेटिंग्स का उपयोग कर रहा हूं जैसा कि आपके द्वारा सुझाए गए अपाचे दस्तावेज़ में दिया गया है। <कॉन्फ़िगरेशन> yarn.nodemanager।aux-सेवाओं mapreduce_shuffle yarn.nodemanager.env-श्वेत सूची JAVA_HOME, HADOOP_COMMON_HOME, HADOOP_HDFS_HOME, HADOOP_CONF_DIR, CLASSPATH_PREPEND_DISTCACHE, HADOOP_YARN_HOME, HADOOP_MAPRED_HOME Shailesh

4

ब्लॉग का पालन करें - http://hortonworks.com/blog/how-to-plan-and-configure-yarn-in-hdp-2-0/

इस विस्तार के लिए मानकों को स्थापित करने के लिए कैसे में वर्णन करता है यार्न कंटेनर

+0

बहुत ही है मुसीबत। मेरे पास वर्चुअल सीपीयू के लिए 90% मुफ्त मेम और 9 0% है, लेकिन नौकरियां नहीं चल रही हैं, वे अभी स्वीकार कर ली गई हैं .... मैंने हॉर्टन आलेख से कोई कदम नहीं उठाया है, कोई किस्मत नहीं। पुनरारंभ करें, क्लाइंट कॉन्फ़िगरेशन को तैनात करें। कुछ नहीं हुआ। नौकरियां अभी भी स्वीकार की जाती हैं और नहीं चलती हैं। – Sergey

+0

ग्रेट आलेख। धन्यवाद, यह मेरा दिन बचाया। – Lavande

8

एक ही समस्या थी, और मेरे लिए यह एक पूर्ण हार्ड ड्राइव (> 9 0% पूर्ण) था जो मुद्दा था। सफाई की जगह मुझे बचाया।

+1

आपने मेरा दिन बचाया; धन्यवाद^^^^ –

8

यार्न पर accepted राज्य में फंसे नौकरी आमतौर पर मुफ्त संसाधनों के कारण पर्याप्त नहीं होती है। आप http://resourcemanager:port/cluster/scheduler पर यह जांच कर सकते हैं:

  1. अगर Memory Used + Memory Reserved >= Memory Total, स्मृति पर्याप्त
  2. अगर VCores Used + VCores Reserved >= VCores Total नहीं है, VCores यह भी इस तरह के maxAMShare के रूप में पैरामीटर द्वारा सीमित किया जा सकता पर्याप्त

नहीं है।

0

मुझे एक ही समस्या का सामना करना पड़ा। और मैंने उपर्युक्त उत्तरों में उल्लिखित प्रत्येक कॉन्फ़िगरेशन को बदल दिया लेकिन फिर भी इसका कोई उपयोग नहीं था। इसके बाद, मैंने अपने क्लस्टर के स्वास्थ्य को दोबारा जांच लिया। वहां, मैंने देखा कि मेरा एकमात्र नोड स्वस्थ राज्य में था। यह समस्या मेरे/tmp/hadoop-hadoopUser/nm-local-dir निर्देशिका में डिस्क स्थान की कमी के कारण थी। पोर्ट 8032 पर संसाधन प्रबंधक वेब यूआई में नोड स्वास्थ्य स्थिति की जांच करके उसी की जांच की जा सकती है। इसे हल करने के लिए, मैंने yarn-site.xml में संपत्ति को नीचे जोड़ा।

<property> 
    <name>yarn.nodemanager.disk-health-checker.max-disk-utilization-per-disk-percentage</name> 
    <value>98.5</value> 
</property> 

मेरी Hadoop डेमॉन को पुन: प्रारंभ करने के बाद, नोड स्थिति स्वस्थ करने के लिए बदल गया और नौकरियों को चलाने के लिए

संबंधित मुद्दे