जवाबों:
उपडोमेन वेबसाइट की निर्देशिका की जड़ में, robots.txt युक्त एक फ़ाइल जोड़ें:
User-agent: *
Disallow: /
यह वेब क्रॉलरों को बताएगा कि साइट को बिल्कुल भी इंडेक्स न करें। उन्हें मानने की ज़रूरत नहीं है, लेकिन मुख्य लोग करेंगे।
noindex
उप-डोमेन पर अनुक्रमणिका और अन्य पृष्ठों को भी जोड़ना चाहिए
आपके उपडोमेन में robots.txt फ़ाइल का उपयोग करने से (और Google इस बात का पालन करेगा), लेकिन एक और कदम जो आप Google वेबमास्टर खाते के साथ निर्दिष्ट कर सकते हैं कि आप इस उपडोमेन को अनुक्रमित नहीं करना चाहते हैं। आप उप-डोमेन में सभी पृष्ठों पर एक मेटा टैग का उपयोग कर सकते हैं:
<meta name="robots" content="noindex">
यदि यह एक ऐसी साइट बनती है जिसे आप केवल आंतरिक परीक्षण के लिए उपयोग कर रहे हैं, तो दृश्यता को सीमित करते हुए आपके वर्चुअल होस्ट फ़ाइल में आईपी पते के एक सेट पर दृश्यता को सीमित कर दिया जाएगा।
meta
प्रत्येक पृष्ठ में एक noindex टैग एम्बेड करने के बजाय , आप इसके बजाय X-Robots-Tag
निर्दिष्ट उपडोमेन के लिए अपने सर्वर से एक HTTP प्रतिक्रिया शीर्ष लेख लौटा सकते हैं - यह आपको केवल एक बार करना है।
Kenzo और पॉल से समाधान अच्छे हैं, आप मेटा टैग noindex को अपने वेब पेजों पर डाल सकते हैं और robots.txt को जोड़ सकते हैं रोबोटों को हटाने के लिए।
लेकिन मेरी राय में, सबसे अच्छा समाधान अपने उप डोमेन पर पासवर्ड प्रमाणीकरण का उपयोग करना है। यह एकमात्र उपाय है जिससे आप सुनिश्चित कर सकते हैं कि रोबोट आपकी वेब साइट को एक्सेस और इंडेक्स कर सकते हैं। यदि आप अपाचे का उपयोग करते हैं, तो आप htpasswd को लागू कर सकते हैं ।
... वर्तमान में एसईओ परिणामों में दिखा रहा है?
अन्य उत्तर सक्रिय रूप से आपके पृष्ठों को खोज परिणामों से हटाने के बजाय एक (उप) डोमेन (जो मुख्य रूप से आप प्रश्न में पूछ रहे हैं) के अनुक्रमण को रोकने के बारे में अधिक हैं , जो आपके द्वारा किए जाने के बाद अधिक हो सकते हैं। अपने अन्य प्रश्न ।
आपको अभी भी अपनी साइट को robots.txt में ब्लॉक करना होगा और अन्य उत्तरों में बताए अनुसार नोइंडेक्स meta
टैग (या X-Robots-Tag
HTTP रिस्पांस हैडर) परोसना होगा , लेकिन आपको 404 या 410 स्टेटस कोड को वापस करते हुए अपने पेज तक पहुंच को भी ब्लॉक करना होगा।
आप इसके बारे में Google वेबमास्टर टूल सहायता पृष्ठ: सामग्री को हटाने के लिए आवश्यकताएँ के बारे में अधिक पढ़ सकते हैं
एक बार जब आपके पास ये सब हो जाता है तो आप Google Webmaster Tools में URL निकालें टूल का उपयोग कर सकते हैं । हालाँकि, यह केवल व्यक्तिगत URL पर लागू होता है, संपूर्ण साइट पर नहीं, बल्कि यह एक शुरुआत है। (Google बताता है कि GWT हटाने वाले टूल का उपयोग करने के लिए robots.txt, noindex और 404 का उपयोग करना आवश्यक है।)
हालाँकि, यदि आप अभी भी नियमित उपयोगकर्ताओं को URL टाइप करके साइट तक पहुँचने में सक्षम होना चाहते हैं, तो यह एक समस्या है - क्योंकि आपकी सामग्री अब उपलब्ध नहीं है। आप इसे पासवर्ड दे सकते हैं, जैसा कि ज़िस्टोलोइन सुझाव देता है, हालांकि यह डिफ़ॉल्ट रूप से एक 403 (निषिद्ध) लौटाएगा जिसे आपको 404/410 वापस करने के लिए ओवरराइड करना होगा। आप सकता है क्लोक अपनी सामग्री, Googlebot पर एक 410 लौटने और बाकी सब प्रवेश करने की अनुमति - SERPs में परिणाम पर क्लिक लोगों के बारे में है, लेकिन क्या?
लेकिन अगर आप चाहते हैं कि Google आपकी सामग्री को सबसे तेज़ समय में हटा दे, तो आपको इसे "Google" इंटरनेट से निकालने की आवश्यकता है।