किसी कारण से मुझे HTTP Error 403: Forbidden
मिलता है जब मैं पृष्ठ http://questionablecontent.net
खोलने का प्रयास करता हूं। मुझे robots.txt
त्रुटि मिलती थी, लेकिन इसे हल किया गया है। इसके अतिरिक्त, मैं उनकी robots.txt फ़ाइल भी नहीं ढूंढ सकता।मशीनीकरण HTTP 403 त्रुटि को फेंक रहा है क्यों?
मैं अभी भी क्रोम से वेबपृष्ठ देख सकता हूं, इसलिए मैं क्या सोच रहा हूं: उचित हेडर सेट करने के बाद भी क्रोम से मशीनीकरण अलग दिखता है?
br = mechanize.Browser()
cj = cookielib.LWPCookieJar()
br.set_cookiejar(cj)
br.set_handle_equiv(True)
br.set_handle_redirect(True)
br.set_handle_robots(False)
br.set_handle_refresh(mechanize._http.HTTPRefreshProcessor(), max_time=1)
br.addheaders = [('User-agent', 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.9.0.1) Gecko/2008071615 Fedora/3.0.1-1.fc9 Firefox/3.0.1')]
मैं भी अपने ब्राउज़र के रूप में ही हेडर को addheaders स्थापित करने की कोशिश की (जो मैं here पाया जाता है):
br.addheaders = [('User-agent','Mozilla/5.0 (Windows NT 6.1; WOW64) AppleWebKit/537.36 (KHTML, like Gecko) Chrome/28.0.1500.72 Safari/537.36')]
यहाँ मेरी कोड (जो काम नहीं करता है) है। .. लेकिन वह भी काम नहीं किया।
अंत में, मैंने सेलेनियम का उपयोग करने की कोशिश की और यह काम किया, क्योंकि यह क्रोम में पृष्ठ लोड करता है और फिर पायथन के साथ संचार करता है। हालांकि, मैं अभी भी इसे मशीनीकरण के साथ काम करना चाहता हूं। साथ ही, मैं अभी भी अनिश्चित हूं कि कैसे क्रोम और मैकेनाइजेशन उनके सर्वर के लिए अलग दिखते हैं।
आपका प्रश्न वास्तव में मेरी मदद करता है और मेरी समस्या हल करता है! बहुत बहुत धन्यवाद – Clement