मुझे अपने लिनक्स सर्वर पर किसी भी लिंक की गई छवियों सहित पूर्ण पृष्ठों को संग्रहित करने की आवश्यकता है। सबसे अच्छा समाधान खोज रहे हैं। क्या सभी संपत्तियों को सहेजने का कोई तरीका है और फिर उन सभी को एक ही निर्देशिका में काम करने के लिए रिलिक करें?लिनक्स सर्वर पर एक पूर्ण वेबपृष्ठ सहेजने का सबसे अच्छा तरीका क्या है?
मैंने कर्ल का उपयोग करने के बारे में सोचा है, लेकिन मुझे यह सुनिश्चित नहीं है कि यह सब कैसे करें। इसके अलावा, क्या मुझे शायद PHP-DOM की आवश्यकता होगी?
क्या सर्वर पर फ़ायरफ़ॉक्स का उपयोग करने का कोई तरीका है और पते लोड होने या समान होने के बाद temp फ़ाइलों की प्रतिलिपि बनाने का कोई तरीका है?
कोई भी और सभी इनपुट स्वागत है।
संपादित करें:
ऐसा लगता है जैसे कि wget है 'नहीं' काम करने जा के रूप में फाइल प्रदान करने की जरूरत है। मेरे पास सर्वर पर फ़ायरफ़ॉक्स स्थापित है, क्या फ़ायरफ़ॉक्स में यूआरएल लोड करने का कोई तरीका है और फिर अस्थायी फ़ाइलों को पकड़ें और बाद में अस्थायी फ़ाइलों को साफ़ करें?
क्या सभी सामग्री स्थिर है, या क्या गतिशील सामग्री भी है (PHP, JSP आदि)? – thkala
यह क्लाइंट वेब ऐप का हिस्सा है इसलिए कुछ भी हो सकता है। सर्वर पर वर्तमान ब्राउज़र स्थिति भेजने के लिए जावास्क्रिप्ट या जावा या इसी तरह का उपयोग करना सबसे अच्छा होगा और फिर और क्या चाहिए। – Tomas
अन्य विकल्प हैं [ब्राउज़र को एचटीएमएल + जावास्क्रिप्ट प्रदान करें] (https://stackoverflow.com/q/18720218) –