मैं प्रोग्रामिंग के जरिए एक वेब पेज सहेजना चाहता हूं।मैं वेब पेज को प्रोग्रामेटिक रूप से कैसे सहेजूं?
मेरा मतलब केवल HTML को सहेजना नहीं है। मैं स्वचालित रूप से सभी संबंधित फाइलों (छवियों, सीएसएस फ़ाइलों, शायद एम्बेडेड एसडब्ल्यूएफ, आदि) को स्टोर करना चाहूंगा, और उम्मीद है कि स्थानीय ब्राउज़िंग के लिए लिंक फिर से लिखना होगा।
इच्छित उपयोग एक व्यक्तिगत बुकमार्क एप्लिकेशन है, जिसमें मूल प्रतिलिपि के मामले में लिंक सामग्री को कैश किया जाता है।
wget -p http://<site>/1.html
page.html और ऐसा करना आवश्यक हो सभी फ़ाइलों को डाउनलोड:
और किसी ने मुझे क्यों गिरा दिया? मेरा मतलब है -1 -1 मुझे इतना परेशान नहीं करता है क्योंकि मैं अपने उत्तर के साथ किसी भी मुद्दे को सही करना चाहता हूं ... – Josh
यह बहुत अच्छा लगता है, सिवाय इसके कि आउटपुट पृष्ठ के समान नहीं दिखता है मैं नकल करता हूँ। उदाहरण के लिए, मैंने 'wget -p' की कोशिश की है http://ffffound.com/image/3d3795b5447291980a40f3719dea4b5b15ff3ec9 हालांकि, संबंधित छवियां जो क्षैतिज सूची के रूप में रखी गई हैं, अब एक लंबी लंबवत सूची बन जाती हैं, एक-प्रति-पंक्ति। क्यूं कर? –