मेरे पास आर में काफी बड़ा डेटाफ्रेम है जिसे मैं एसपीएसएस को निर्यात करना चाहता हूं। इस फ़ाइल में पहली जगह में आर करने के लिए इसे आयात करने की कोशिश सिर दर्द का मुझे घंटे का कारण बना है, फिर भी मैं (एक चरित्र फ़ाइल में प्रदर्शित नहीं हो) और विकल्प comment.char="%"
का उपयोग कर read.fwf()
का उपयोग कर सफल हो गया fill= TRUE
(यह एक निश्चित-चौड़ाई ASCII फ़ाइल था कुछ पंक्तियों के साथ सभी चर की कमी, त्रुटि संदेशों का कारण बनता है)।टेक्स्ट फ़ाइल में बड़े (3.9 मिल ऑब्जेक्ट) डेटा.फ्रेम निर्यात करने का सबसे प्रभावी तरीका?
वैसे भी, मेरे डेटा फ्रेम वर्तमान में 3,9 मिल टिप्पणियों और 48 चर (सभी चरित्र) के होते हैं। मैं इसे df2 <- df[1:1000000,]
के साथ 0 xआदि के साथ 4 x 1 मिल ऑब्जेक्ट सेट में विभाजित करके काफी तेज़ी से फ़ाइल करने के लिए लिख सकता हूं, लेकिन कंप्यूटर लॉक होने के बिना पूरी फ़ाइल को एक स्वीप में नहीं लिख सकता और वापस आने के लिए हार्ड रीसेट की आवश्यकता नहीं है अप।
के बारे में कैसे आर वर्षों के लिए बड़े डेटासेट के लिए अनुपयुक्त है वास्तविक कहानियों को सुनने के बाद यह पहली बार मैं वास्तव में इस तरह की एक समस्या का सामना करना पड़ा है। मुझे आश्चर्य है कि क्या अन्य दृष्टिकोण हैं (फ़ाइल को सीधे डिस्क पर कम-स्तर "डंपिंग"? या क्या मेरे पास कुछ पैकेज अज्ञात हैं जो इस प्रकार की बड़ी फ़ाइलों को कुशलता से निर्यात कर सकते हैं?
हाय रिची, मुझे यकीन नहीं है कि 8 जीबी रैम इस डेटासेट के साथ भी "रैम पर छोटा" के रूप में योग्य है या नहीं। हालांकि, मैं जेडी लांग द्वारा सुझाए गए अनुसार 'sqldf()' का उपयोग करने के लिए देखूँगा क्योंकि मैं इसे अपने विश्लेषण में बहुत उपयोग कर रहा हूं। सूचक के लिए धन्यवाद! – jans