मेरे पास कुछ डायनेमिक जेनरेट किए गए URL हैं।
क्या मैं इन URLs को किसी robots.txt फ़ाइल में ब्लॉक करने के लिए regex का उपयोग कर सकता हूं?
मेरे पास कुछ डायनेमिक जेनरेट किए गए URL हैं।
क्या मैं इन URLs को किसी robots.txt फ़ाइल में ब्लॉक करने के लिए regex का उपयोग कर सकता हूं?
जवाबों:
नियमित एक्सट्रैक्शन robots.txt में मान्य नहीं हैं, लेकिन Google, बिंग और कुछ अन्य बॉट कुछ पैटर्न मिलान को पहचानते हैं।
यदि आप सभी URL को ब्लॉक करना चाहते हैं example
, जो URL में है, तो आप वाइल्ड कार्ड प्रविष्टि का उपयोग कर सकते हैं *
User-agent: *
Disallow: /*example
आप यह निर्दिष्ट करने के लिए भी डॉलर साइन $ का उपयोग कर सकते हैं कि URL को इस तरह समाप्त होना चाहिए। इसलिए यदि आप उन सभी URL को ब्लॉक करना चाहते हैं, जो उस URL को कहते हैं example
, जो example
आपके द्वारा उपयोग किए जा सकने वाले URL में कहीं और नहीं है :
User-agent: *
Disallow: /*example$
Google के लिए और अधिक गहराई से जानकारी यहाँ मिल सकती है: Robots.txt विनिर्देशों , बिंग यहाँ: कैसे एक Robots.txt फ़ाइल बनाने के लिए और यहाँ पर एक इंटरैक्टिव गाइड है Moz