1
क्या हम URLs को ब्लॉक करने के लिए robots.txt फ़ाइल में regex का उपयोग कर सकते हैं?
मेरे पास कुछ डायनेमिक जेनरेट किए गए URL हैं। क्या मैं इन URLs को किसी robots.txt फ़ाइल में ब्लॉक करने के लिए regex का उपयोग कर सकता हूं?