मैं एक json
फ़ाइल, nodes
है कि इस तरह दिखता है:पढ़ना JSON - `corrupt_record`
[{"toid":"osgb4000000031043205","point":[508180.748,195333.973],"index":1}
,{"toid":"osgb4000000031043206","point":[508163.122,195316.627],"index":2}
,{"toid":"osgb4000000031043207","point":[508172.075,195325.719],"index":3}
,{"toid":"osgb4000000031043208","point":[508513,196023],"index":4}]
मैंने पढ़ा है और अजगर के साथ इस रिकॉर्ड में हेरफेर करने में सक्षम हूँ।
मैं इस फ़ाइल को scala
में spark-shell
के माध्यम से पढ़ने की कोशिश कर रहा हूं।
इस tutorial से, मैं देख सकता हूँ कि यह माध्यम से sqlContext.read.json
val vfile = sqlContext.read.json("path/to/file/nodes.json")
हालांकि json
पढ़ने के लिए संभव है, यह एक corrupt_record
त्रुटि में परिणाम है:
vfile: org.apache.spark.sql.DataFrame = [_corrupt_record: string]
किसी को भी इस पर कुछ प्रकाश डाला सकता है त्रुटि? मैं अन्य अनुप्रयोगों के साथ फ़ाइल को पढ़ और उपयोग कर सकता हूं और मुझे विश्वास है कि यह भ्रष्ट और ध्वनि json
नहीं है।
धन्यवाद @ dl14। मुझे अधिक गहराई में इनपुट फ़ाइलों को तैयार करने के बारे में सोचना होगा – LearningSlowly
आगंतुक: सुनिश्चित करें कि आप इस उत्तर का अंतिम भाग पढ़ लें: "ध्यान दें कि जेएसएस फ़ाइल के रूप में पेश की जाने वाली फ़ाइल एक सामान्य JSON फ़ाइल नहीं है प्रत्येक पंक्ति में एक अलग, स्वयं निहित वैध JSON ऑब्जेक्ट होना चाहिए। परिणामस्वरूप, नियमित बहु-पंक्ति JSON फ़ाइल अक्सर असफल हो जाती है। " –