मेरे पास स्थानीय फ़ाइल सिस्टम पर 10 एम + तस्वीरें सहेजी गई हैं। अब मैं तस्वीर के बाइनरी का विश्लेषण करने के लिए उनमें से प्रत्येक के माध्यम से जाना चाहता हूं यह देखने के लिए कि यह कुत्ता है या नहीं। मैं मूल रूप से क्लस्टर्ड हडूप पर्यावरण पर विश्लेषण करना चाहता हूं। समस्या यह है कि, मैप विधि के लिए इनपुट कैसे डिजाइन करना चाहिए? मान लें, मानचित्र विधि में, new FaceDetection(photoInputStream).isDog()
विश्लेषण के लिए सभी अंतर्निहित तर्क है।हडोप: नक्शा/कम करके संसाधित होने के लिए (कई) फोटो छवियों को कैसे एक्सेस करें?
विशेष रूप से, क्या मुझे सभी तस्वीरें HDFS
पर अपलोड करनी चाहिए? मान लें हाँ,
मैं उन्हें
map
विधि में कैसे उपयोग कर सकता हूं?यह प्रत्येक एक लाइन के साथ (
HDFS
में) तस्वीर पथ के सभी युक्त पाठ फ़ाइल के रूप (map
करने के लिए) इनपुट बनाने के लिए ठीक है, और नक्शे विधि में, जैसे द्विआधारी लोड:photoInputStream = getImageFromHDFS(photopath);
(वास्तव में , क्या नक्शा विधि के निष्पादन के दौरान HDFS से फ़ाइल को लोड करने के लिए सही तरीका है?)
ऐसा लगता है मैं hadoop
, map/reduce
और hdfs
के लिए बुनियादी सिद्धांत के बारे में कुछ मनोरोग की याद आती है, लेकिन आप कर सकते हैं तो कृपया उपरोक्त प्रश्न के संदर्भ में मुझे इंगित करें, धन्यवाद!
क्या आप इसे प्राप्त करने में सक्षम थे? असल में मैं कुछ ऐसा करने की कोशिश कर रहा हूं लेकिन मुझे – user3527975