मैं आमतौर पर हनीपॉट दृष्टिकोण से सहमत हूं। हालांकि, मैंने "/robots.txt" द्वारा अवरुद्ध पृष्ठ पर हनीपॉट पेज/संसाधन को केवल लिंक दिया - साथ ही साथ हनीपॉट अवरुद्ध किया गया। इस तरह, दुर्भावनापूर्ण रोबोट को खुद को प्रतिबंधित करने के लिए "अस्वीकार" नियम (ओं) TWICE का उल्लंघन करना पड़ता है। एक विशिष्ट उपयोगकर्ता मैन्युअल रूप से एक अनजान लिंक का पालन करने की संभावना है, केवल एक बार ऐसा करने के लिए और हनीपॉट यूआरएल वाले पेज को नहीं मिल सकता है।
हनीपॉट संसाधन दुर्भावनापूर्ण क्लाइंट के अपमानजनक आईपी पते को एक फ़ाइल में लॉग करता है जिसे वेब सर्वर कॉन्फ़िगरेशन में कहीं और आईपी प्रतिबंध सूची के रूप में उपयोग किया जाता है। इस तरह, एक बार सूचीबद्ध होने पर, वेब सर्वर उस क्लाइंट आईपी पते द्वारा आगे की पहुंच को अवरुद्ध करता है जब तक कि सूची साफ़ नहीं हो जाती। दूसरों के पास कुछ प्रकार की स्वचालित समाप्ति हो सकती है, लेकिन मुझे केवल प्रतिबंध सूची से मैन्युअल हटाने में विश्वास है।
इसके अलावा: मैं स्पैम और मेरे मेल सर्वर के साथ भी वही काम करता हूं: साइट्स जो मुझे स्पैम भेजती हैं, उनके पहले संदेश के रूप में मुझे लॉग फ़ाइल साफ़ करने तक कोई और संदेश भेजने से प्रतिबंधित कर दिया जाता है। हालांकि मैं आवेदन स्तर पर इन प्रतिबंध सूचियों को लागू करता हूं, मेरे पास फ़ायरवॉल स्तर गतिशील प्रतिबंध सूचियां भी हैं। मेरे मेल और वेब सर्वर भी उनके बीच प्रतिबंधित आईपी जानकारी साझा करते हैं। एक अत्याधुनिक स्पैमर के लिए, मुझे लगा कि एक ही आईपी पता एक दुर्भावनापूर्ण मकड़ी और स्पैम स्पूयर दोनों होस्ट कर सकता है। बेशक, वह प्री-बॉटनेट था, लेकिन मैंने इसे कभी नहीं हटाया।
स्रोत
2012-12-22 04:40:55
+1 robots.txt काम नहीं करेगा यदि मकड़ी दुर्भावनापूर्ण है। आपको उन्हें आईपी या उपयोगकर्ता एजेंट स्ट्रिंग द्वारा फ़ायरवॉल पर अवरुद्ध करने की आवश्यकता होगी, लेकिन दुर्भाग्यवश (जैसा कि आपने देखा है) इसे जारी रखना मुश्किल हो सकता है। –
अनुरोध दरों, आईपी, जो भी हो, पर आधारित दुर्भावनापूर्ण स्क्रिप्ट को फ़िल्टर करने के लिए HTML मॉड्यूल बनाना सबसे अच्छा होगा। – Todd
यदि आप HTTPModule का उपयोग करते हैं तो आप अपने आप को संभावित डॉस अटैक पर खोल रहे हैं। –