robots.txt में मैं साइटमैप फ़ाइल के लिए निम्नलिखित सापेक्ष यूआरएल लिख सकता हूं?क्या एक सापेक्ष साइटमैप यूआरएल robots.txt में उपयोग किया जा सकता है?
sitemap: http://subdomain.domain.com/sitemap.ashx
मैं क्यों आश्चर्य:
- मैं एक नया ब्लॉग सेवा के मालिक हैं,
sitemap: /sitemap.ashx
या, जैसे मैं साइटमैप फ़ाइल के लिए पूर्ण (पूर्ण) URL का उपयोग करने की क्या ज़रूरत है www.domain.com, जो उपयोगकर्ताओं को accountname.domain.com पर ब्लॉग करने की अनुमति देता है।
- मैं वाइल्डकार्ड का उपयोग करता हूं, इसलिए सभी सबडोमेन (खाते) इंगित करते हैं: "blog.domain.com"।
blog.domain.com में मैंने robots.txt को खोज इंजन को साइटमैप खोजने के लिए रखा। लेकिन, वाइल्डकार्ड के कारण, सभी उपयोगकर्ता खाता एक ही robots.txt फ़ाइल साझा करते हैं। यही कारण है कि मैं दूसरे विकल्प का उपयोग नहीं कर सकता। और अभी के लिए मैं txt फ़ाइलों के लिए url rewrite का उपयोग नहीं कर सकता। (मुझे लगता है कि आईआईएस के बाद के संस्करणों इस संभाल कर सकते हैं?)
कृपया ध्यान दें @ UNOR के उदाहरण हैं:: राजधानी एस के साथ साइटमैप यह महत्वपूर्ण है के रूप में Robots.txt केस संवेदी है ऐसा करने के लिए, बस निम्नलिखित लाइन पूर्ण URL साइटमैप को सहित जोड़ें। – BodgeIT
और मामले के विषय पर, [robotstxt.org] (http://www.robotstxt.org/robotstxt.html) फ़ाइल को लोड होने पर फ़ाइल को 'robots.txt' नाम दिया गया है, यदि पूंजी आर – khargoosh
है https के साथ उल्लिखित https, साइटमैप यूआरएल। क्या यह ठीक है? या क्या हमें प्रोटोकॉल के आधार पर साइटमैप यूआरएल रखना है? – Shams