का सम्मान नहीं कर रहा है किसी कारण से जब मैं Google वेबमास्टर टूल की "robots.txt का विश्लेषण करता हूं" यह देखने के लिए कि हमारी robots.txt फ़ाइल द्वारा कौन से यूआरएल अवरुद्ध हैं, यह मेरी अपेक्षा नहीं है। यहाँ हमारे फ़ाइल की शुरुआत से एक टुकड़ा है:Googlebot Robots.txt
लिपियों फ़ोल्डर मेंSitemap: http://[omitted]/sitemap_index.xml
User-agent: Mediapartners-Google
Disallow: /scripts
User-agent: *
Disallow: /scripts
# list of articles given by the Content group
Disallow: http://[omitted]/Living/books/book-review-not-stupid.aspx
Disallow: http://[omitted]/Living/books/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx
Disallow: http://[omitted]/Living/sportsandrecreation/book-review-running-through-roadblocks-inspirational-stories-of-twenty-courageous-athletic-warriors.aspx
कुछ भी सही ढंग से दोनों Googlebot और मीडिया भागीदार- Google के लिए ब्लॉक किए गए हैं। मैं देख सकता हूं कि दो रोबोट सही निर्देश देख रहे हैं क्योंकि Googlebot का कहना है कि स्क्रिप्ट को लाइन 7 से अवरुद्ध कर दिया गया है जबकि Mediapartners-Google को लाइन 4 से अवरुद्ध कर दिया गया है और फिर भी कोई अन्य यूआरएल मैं दूसरे उपयोगकर्ता के तहत अस्वीकृत यूआरएल से डालता हूं -जेंट निर्देश अवरुद्ध नहीं हैं!
अगर मेरी टिप्पणी या निरपेक्ष यूआरएल का उपयोग कर बातें पंगा लेना कर रहे हैं मैं सोच रहा हूँ ...
किसी भी अंतर्दृष्टि की सराहना की है। धन्यवाद।
क्या यह पहली पंक्ति सही है? http://www.sitemaps.org/protocol.php#submit_robots इंगित करता है कि साइटमैप स्थान पूरा यूआरएल होना चाहिए। –
पूर्ण यूआरएल के साथ साइट मानचित्र ठीक है, लेकिन आपकी अस्वीकृति सूची अभी भी पूर्ण होनी चाहिए। –
नीचे डेविड जेड के बाद, क्या यह फॉर्मूलेशन थोड़ा स्पष्ट नहीं होगा ?: पूर्ण यूआरएल के साथ साइट मानचित्र ठीक है, लेकिन दस्तावेजों की जड़ के आधार पर सूचियों को संबंधित यूआरएल होना चाहिए। – tuk0z