मैं एक वेब पेज की एक स्थानीय प्रति डाउनलोड करने और सीएसएस, छवियों, जावास्क्रिप्ट के सभी प्राप्त करने के लिए, आदिवेबपृष्ठ का एक काम कर रहे स्थानीय प्रतिलिपि डाउनलोड
पिछले विचार-विमर्श में (जैसे here और here, दोनों चाहते हैं जिनमें से दो साल से अधिक पुराना है), दो सुझाव आम तौर पर आगे दिए जाते हैं: wget -p
और httrack। हालांकि, ये सुझाव दोनों विफल हो जाते हैं। मैं कार्य को पूरा करने के लिए इन उपकरणों में से किसी एक का उपयोग करने में सहायता की बहुत सराहना करता हूं; विकल्प भी सुंदर हैं।
विकल्प 1: wget -p
wget -p
सफलतापूर्वक वेब पृष्ठ के आवश्यक शर्तें के सभी डाउनलोड करता है (सीएसएस, छवियों, जे एस)। हालांकि, जब मैं एक वेब ब्राउज़र में स्थानीय प्रतिलिपि लोड करता हूं, तो पृष्ठ पूर्वापेक्षाएँ लोड करने में असमर्थ है क्योंकि उन पूर्वापेक्षाएँ के पथ वेब पर संस्करण से संशोधित नहीं किए गए हैं।
उदाहरण के लिए:
- पृष्ठ के HTML में,
<link rel="stylesheet href="/stylesheets/foo.css" />
foo.css
- सीएसएस फ़ाइल में की नई रिश्तेदार पथ को इंगित करने के लिए सही करने की आवश्यकता होगी,
background-image: url(/images/bar.png)
इसी तरह समायोजित करने की आवश्यकता होगी।
क्या wget -p
को संशोधित करने का कोई तरीका है ताकि पथ सही हों?
विकल्प 2: httrack
httrack
संपूर्ण वेबसाइटें मिरर के लिए एक महान उपकरण की तरह लगता है, लेकिन यह है कि यह कैसे उपयोग करने के लिए एक ही पृष्ठ की स्थानीय प्रतिलिपि बनाने के लिए मेरे लिए स्पष्ट नहीं है। इस विषय के बारे में प्रेरणा मंचों में चर्चा का एक बड़ा सौदा है (उदा। here) लेकिन किसी को भी बुलेट प्रूफ समाधान नहीं लगता है।
विकल्प 3: दूसरा उपकरण?
कुछ लोगों ने भुगतान किए गए टूल का सुझाव दिया है, लेकिन मुझे विश्वास नहीं है कि वहां एक मुफ्त समाधान नहीं है।
बहुत बहुत धन्यवाद!
जवाब काम नहीं करता है, की कोशिश: 'wget -E एच -k -K -p http: // example.com' - केवल इस के लिए काम किया मुझे। क्रेडिट: http: // superuser।कॉम/ए/136335/94039 –
ऐसा करने के लिए सॉफ्टवेयर भी है, [टेलीपोर्ट प्रो] (http://www.tenmax.com/teleport/pro/home.htm)। – pbies
'wget --random-wait -r -p -e robots = off -U mozilla http: // www.example.com' – davidcondrey