मैं इन सेटिंग्स (दूसरों के बीच) के साथ एक चिंगारी काम शुरू किया:"एन कार्य (XXXX एमबी) के धारावाहिक परिणाम" pyspark में `spark.driver.memory` से अधिक होने के लिए क्यों संभव है?
spark.driver.maxResultSize 11GB
spark.driver.memory 12GB
मैं अपने pyspark
काम डिबगिंग था, और यह मुझे त्रुटि दे रखा:
serialized results of 16 tasks (17.4 GB) is bigger than spark.driver.maxResultSize (11 GB)
तो, मैं spark.driver.maxResultSize
वृद्धि हुई कॉन्फ़िगरेशन सेटिंग्स में 18 G
पर। और, यह काम किया !!
अब, यह दिलचस्प है क्योंकि दोनों मामलों में spark.driver.memory
SMALER क्रमबद्ध परिणामों के मुकाबले वापस आया था।
इसकी अनुमति क्यों है? मुझे लगता है कि यह संभव नहीं है क्योंकि धारावाहिक परिणाम थे जब मैं डिबगिंग कर रहा था, जो चालक के आकार से अधिक है, जो ऊपर दिखाए गए अनुसार 12 GB
है?
यह कैसे संभव है?
बस उत्सुक - डाउनवोट क्यों? – simple