हम रोबोट.txt में हमारी वेबसाइट को क्रॉल करने या क्रॉल करने के लिए बॉट्स को बता सकते हैं। दूसरी तरफ, हम Google वेबमास्टर्स में क्रॉलिंग गति को नियंत्रित कर सकते हैं (Google बॉट वेबसाइट को कितना क्रॉल करता है)। मुझे आश्चर्य है कि क्रॉलर गतिविधियों को robots.txtक्या robots.txt द्वारा क्रॉल गति को नियंत्रित करना संभव है?
मेरा मतलब है कि पृष्ठों को क्रॉल करने के लिए बॉट स्वीकार करना, लेकिन समय या पृष्ठों या आकार के अनुसार उनकी उपस्थिति को सीमित करना संभव है!
अंतिम मैंने सुना है, Googlebot क्रॉल-देरी पर ध्यान नहीं देता है, तो यह वास्तव में गूगल के लिए मदद नहीं करेगा। हालांकि, कुछ अन्य बॉट्स के लिए होगा। जानकारी के बिना कि किस बॉट के लिए यह काम करता है, यह उत्तर बल्कि अधूरा है। – derobert
'क्रॉल-विलंब' के बारे में अधिक जानकारी इस SO प्रश्न को देखें: http://stackoverflow.com/questions/17377835/robots-txt-what-is-the-proper-format-for-a-crawl-delay-for-multiple -सर-एजेंट –
क्रॉल-देरी मानक का हिस्सा नहीं है, लेकिन कुछ बॉट इसका सम्मान करते हैं: https://en.wikipedia.org/wiki/Robots_exclusion_standard#Crawl-delay_directive – nmit026