में एक बड़ा hprof लोड हो रहा है मेरे पास एक 6.5 जीबी Hprof फ़ाइल है जिसे -XX:-HeapDumpOnOutOfMemoryError
विकल्प का उपयोग कर 64-बिट JVM द्वारा डंप किया गया था। मैंने इसे 16 जीबी 64-बिट मशीन पर बैठा है, और इसे जाट में लाने की कोशिश कर रहा हूं, लेकिन यह स्मृति से बाहर चल रहा है। मैंने न्यूनतम सेटिंग्स के लिए jvm args में गुजरने का प्रयास किया है, लेकिन यह किसी भी न्यूनतम को अस्वीकार करता है, और अधिकतम मारने से पहले स्मृति से बाहर निकलता प्रतीत होता है।jhat
ऐसा लगता है कि स्मृति से बाहर चलने वाला एक जेवीएम एक ढेर को इतनी बड़ी डंप करता है कि इसे दो बार जितना रैम वाला बॉक्स पर लोड नहीं किया जा सकता है। क्या यह चलने, या संभवतः विश्लेषण को कम करने के कोई तरीके हैं?
यह भी देखें https://stackoverflow.com/questions/7254017/tool-for-analyzing-large-java-heap-dumps – rogerdpack