large-data

    6गर्मी

    1उत्तर

    मैं एक खेल को मजबूर कर रहा हूं और मुझे सभी पदों और परिणामों के लिए डेटा स्टोर करने की आवश्यकता है। डेटा आकार में सैकड़ों जीबी की संभावना होगी। मैंने एसक्यूएल माना, लेकिन मुझे डर है कि एक तंग पाश में ल

    7गर्मी

    1उत्तर

    मैं बहुत बड़ी फ़ाइलों को पढ़ने के प्रयास में data.table (1.8.8, R 3.0.1) में फ़्रेड का उपयोग कर रहा हूं। प्रश्नों में फ़ाइल में 313 पंक्तियां और संख्यात्मक डेटा पंक्तियों के ~ 6.6 मिलियन कोल हैं और फ़

    16गर्मी

    3उत्तर

    मेरे पास बहुत बड़ी JSON फ़ाइल है जो कई जीबी है। मैं किसी भी कुशल JSON दर्शक की तलाश में हूं। जिसमें हम पेड़ प्रारूप में जेएसओएन भी देख सकते हैं। मुझे लगता है कि इस तरह की विशाल फ़ाइल को एक बार में लोड

    5गर्मी

    1उत्तर

    मुझे स्मृति मैप किए गए फ़ाइल में संग्रहीत एक विशाल numpy सरणी के हिस्सों में पढ़ने की आवश्यकता है, डेटा को संसाधित करें और सरणी के दूसरे भाग के लिए दोहराएं। पूरी numpy सरणी लगभग 50 जीबी लेता है और मेर

    5गर्मी

    1उत्तर

    मैं कोड प्रदान नहीं कर सकता क्योंकि यह एक सार समस्या है जिसे मैं वर्तमान में सामना कर रहा हूं। मैं एक ऐसे कार्यक्रम पर काम कर रहा हूं जो उपयोगकर्ता को गेम से खिलाड़ियों को ट्रैक करने की अनुमति देता है

    6गर्मी

    1उत्तर

    इस प्रश्न से पहले पूछा गया है, लेकिन समाधान केवल 1 डी/2 डी सरणी के लिए काम करता है, और मुझे एक और सामान्य उत्तर की आवश्यकता है। डेटा को दोहराने के बिना आप दोहराने वाले सरणी कैसे बनाते हैं? यह मुझे साम

    5गर्मी

    1उत्तर

    के बड़े सरणी के साथ चरम मेमोरी उपयोग Sample 1 संकलित करते समय, यह मेरी सभी रैम का उपयोग करता है और मेरे कंप्यूटर को क्रैश करता है अभी तक Sample 2 ऐसा करने के बिना तुरंत संकलित करता है? नमूना 1: class

    9गर्मी

    1उत्तर

    का उपयोग कर बड़े मैट्रिक्स मैं 2000 कॉलम और 200000 पंक्तियों के साथ एक मैट्रिक्स प्लॉट करने की कोशिश कर रहा हूं। मैं जब मैट्रिक्स का उपयोग कर matshow(my_matrix) show() हालांकि, जब अधिक पंक्तियों my

    5गर्मी

    2उत्तर

    मैं एक बड़ी सांख्यिक डेटासेट के साथ का मतलब है (~ 700 पंक्तियाँ, 350,000 कॉलम, आर में एक data.table के रूप में पढ़ने) युक्त कुछ एनए के कि मैं स्तंभ के साथ प्रतिस्थापित करना चाहते हैं के रूप में जल्दी

    6गर्मी

    1उत्तर

    के माध्यम से BigQuery को बड़ी मात्रा में डेटा डालें, मेरे पास बड़ी सीएसवी फ़ाइलें हैं और एक्सेल फाइलें हैं जहां मैंने उन्हें पढ़ा है और आवश्यक फ़ील्ड और प्रकारों के आधार पर गतिशील रूप से आवश्यक तालिका