मुझे Azure Table Storage से डेटा की लगभग 100 मिलियन पंक्तियों को डाउनलोड करने का कार्य सौंपा गया है। यहां गति की महत्वपूर्ण बात है।Azure Table Storage से 100 मिलियन पंक्तियों को डाउनलोड करने के लिए कैसे करें
हम जिस प्रक्रिया का उपयोग कर रहे हैं वह एज़ूर टेबल स्टोरेज से 10,000 पंक्तियों को डाउनलोड कर रहा है। एसक्यूएल सर्वर के स्थानीय उदाहरण में उन्हें संसाधित करें। पंक्तियों को संसाधित करते समय यह Azure तालिका से एक समय में 100 पंक्तियों को हटा देता है। इस प्रक्रिया को एक समय में 10,000 पंक्तियों को डाउनलोड करने के लिए 8 धागे होने के लिए थ्रेड किया गया है।
इसकी एकमात्र समस्या यह है कि हमारी गणना के अनुसार। हमारे द्वारा संग्रहीत लगभग 100 मिलियन पंक्तियों को डाउनलोड और संसाधित करने में लगभग 40 दिन लगेंगे। क्या कोई इस कार्य को पूरा करने के लिए एक तेज़ तरीका जानता है?
एक साइड प्रश्न: डाउनलोड प्रक्रिया के दौरान Azure वापस XML भेज देगा कि इसमें कोई डेटा नहीं है। यह एक त्रुटि वापस नहीं भेजता है। लेकिन यह भेजता है:
<?xml version="1.0" encoding="utf-8" standalone="yes"?>
<feed xml:base="azure-url/" xmlns:d="http://schemas.microsoft.com/ado/2007/08/dataservices" xmlns:m="http://schemas.microsoft.com/ado/2007/08/dataservices/metadata" xmlns="http://www.w3.org/2005/Atom">
<title type="text">CommandLogTable</title>
<id>azure-url/CommandLogTable</id>
<updated>2010-07-12T19:50:55Z</updated>
<link rel="self" title="CommandLogTable" href="CommandLogTable" />
</feed>
0
क्या किसी और को यह समस्या है और इसके लिए कोई फिक्स है?
प्रति पंक्ति कितना डेटा? 400 बाइट्स, 400 केबी, एक मेग? –
अधिकतर प्रत्येक पंक्ति 1k है। – jWoose
मैंने Azure के साथ काम नहीं किया है, इसलिए मैं केवल एक SQL/नेटवर्क दृश्य से शूट करने में परेशानी का प्रयास कर रहा हूं; हालांकि, मैं कुछ ब्लॉगों के माध्यम से पढ़ रहा हूं और वे सभी एक ही बात कह रहे हैं- एटीओएम का उपयोग करना बहुत ही वर्बोज़ और बड़े डेटासेट के लिए अक्षम है। अब, मुझे यकीन नहीं है कि इसे बदलने में कितना मुश्किल है; लेकिन यहां गति/डेटा अंतर का एक उदाहरण है http://weblogs.asp.net/rgillen/archive/2009/08/20/atompub-json-azure-and-large- डेटासेट-part-2.aspx –