Google / खोज इंजन एसईओ परिणाम से एक उपडोमेन छिपाएँ?


11

मेरे पास एक उप-डोमेन है जिसे मैं किसी भी खोज इंजन परिणाम में सूचीबद्ध नहीं करना चाहता हूं। मान लीजिए कि मेरे पास है:

  • http://www.example.com
  • http://child.example.com

मैं डोमेन के सभी URL कैसे छिपा सकता हूं child.example.comजो वर्तमान में खोज इंजन परिणामों में दिखाई दे रहे हैं?

जवाबों:


14

उपडोमेन वेबसाइट की निर्देशिका की जड़ में, robots.txt युक्त एक फ़ाइल जोड़ें:

User-agent: *
Disallow: /

यह वेब क्रॉलरों को बताएगा कि साइट को बिल्कुल भी इंडेक्स न करें। उन्हें मानने की ज़रूरत नहीं है, लेकिन मुख्य लोग करेंगे।


नमस्ते, मेरा मानना ​​है कि यह सबसे अच्छी बात है। और एक और बात मुझे पता है, अगर मैं ऐसा करता हूं, तो वेब परिणाम पर कितना समय लगेगा? (जैसे Google खोज) क्या मुझे समय की आवश्यकता है या यह अचानक लगेगा?

2
अगली बार जब अनुक्रमणिका साइट को क्रॉल करेगी तो इसे स्वीकार किया जाएगा। आपकी साइट को कितना महत्वपूर्ण माना जाता है, इसके आधार पर यह मिनटों से लेकर हफ्तों तक कुछ भी हो सकता है। आप Google और बिंग पर वेबमास्टरों में साइट को जोड़कर चीजों को और अधिक तेज़ी से आगे बढ़ा सकते हैं और इसे robots.txt पर फिर से जोड़ सकते हैं - आप वहाँ के इंडेक्स से पेज भी हटा सकते हैं।
पॉल

1
यदि आप इस प्रक्रिया को गति देना चाहते हैं तो आप Google के लिए google.com/webmasters/tools/removals पर निष्कासन अनुरोध जमा कर सकते हैं और बिंग के लिए bing.com/toolbox/submit-site-url पर URL सबमिट कर सकते हैं (हाँ, यह अनुशंसित है पृष्ठ हटाने की विधि )।
कैट

आपको noindexउप-डोमेन पर अनुक्रमणिका और अन्य पृष्ठों को भी जोड़ना चाहिए
Anagio

सामान्य रूट फ़ोल्डर और उपडोमेन नाम गतिशील होने पर मैं कैसे करूं? stackoverflow.com/questions/21229235/…
गोपी

6

आपके उपडोमेन में robots.txt फ़ाइल का उपयोग करने से (और Google इस बात का पालन करेगा), लेकिन एक और कदम जो आप Google वेबमास्टर खाते के साथ निर्दिष्ट कर सकते हैं कि आप इस उपडोमेन को अनुक्रमित नहीं करना चाहते हैं। आप उप-डोमेन में सभी पृष्ठों पर एक मेटा टैग का उपयोग कर सकते हैं:

    <meta name="robots" content="noindex">

यदि यह एक ऐसी साइट बनती है जिसे आप केवल आंतरिक परीक्षण के लिए उपयोग कर रहे हैं, तो दृश्यता को सीमित करते हुए आपके वर्चुअल होस्ट फ़ाइल में आईपी पते के एक सेट पर दृश्यता को सीमित कर दिया जाएगा।


सभी पृष्ठों में ????? अरे नहीं ..

@ 4lvin यह सर्वर की तरफ से गतिशील रूप से किया जाता है। आपको केवल एक बार इसे कोड करना होगा। कृपया मुझे नहीं बताएं कि आप अलग-अलग HTML पृष्ठों को कोड कर रहे हैं।
केन्जो

LoL, वास्तव में "हाँ"। क्योंकि यह बहुत पुरानी / विरासत वेब सेवा प्रणाली है। (यही कारण है कि इसे नीचे लाने की आवश्यकता है) अंदर कई अलग-अलग पृष्ठ। : D
१०'१३

@ 4lvin आउच ... उस के साथ शुभकामनाएँ!
केंजो

1
metaप्रत्येक पृष्ठ में एक noindex टैग एम्बेड करने के बजाय , आप इसके बजाय X-Robots-Tagनिर्दिष्ट उपडोमेन के लिए अपने सर्वर से एक HTTP प्रतिक्रिया शीर्ष लेख लौटा सकते हैं - यह आपको केवल एक बार करना है।
MrWhite

2

Kenzo और पॉल से समाधान अच्छे हैं, आप मेटा टैग noindex को अपने वेब पेजों पर डाल सकते हैं और robots.txt को जोड़ सकते हैं रोबोटों को हटाने के लिए।

लेकिन मेरी राय में, सबसे अच्छा समाधान अपने उप डोमेन पर पासवर्ड प्रमाणीकरण का उपयोग करना है। यह एकमात्र उपाय है जिससे आप सुनिश्चित कर सकते हैं कि रोबोट आपकी वेब साइट को एक्सेस और इंडेक्स कर सकते हैं। यदि आप अपाचे का उपयोग करते हैं, तो आप htpasswd को लागू कर सकते हैं ।


2

... वर्तमान में एसईओ परिणामों में दिखा रहा है?

अन्य उत्तर सक्रिय रूप से आपके पृष्ठों को खोज परिणामों से हटाने के बजाय एक (उप) डोमेन (जो मुख्य रूप से आप प्रश्न में पूछ रहे हैं) के अनुक्रमण को रोकने के बारे में अधिक हैं , जो आपके द्वारा किए जाने के बाद अधिक हो सकते हैं। अपने अन्य प्रश्न

आपको अभी भी अपनी साइट को robots.txt में ब्लॉक करना होगा और अन्य उत्तरों में बताए अनुसार नोइंडेक्स meta टैग (या X-Robots-TagHTTP रिस्पांस हैडर) परोसना होगा , लेकिन आपको 404 या 410 स्टेटस कोड को वापस करते हुए अपने पेज तक पहुंच को भी ब्लॉक करना होगा।

आप इसके बारे में Google वेबमास्टर टूल सहायता पृष्ठ: सामग्री को हटाने के लिए आवश्यकताएँ के बारे में अधिक पढ़ सकते हैं

एक बार जब आपके पास ये सब हो जाता है तो आप Google Webmaster Tools में URL निकालें टूल का उपयोग कर सकते हैं । हालाँकि, यह केवल व्यक्तिगत URL पर लागू होता है, संपूर्ण साइट पर नहीं, बल्कि यह एक शुरुआत है। (Google बताता है कि GWT हटाने वाले टूल का उपयोग करने के लिए robots.txt, noindex और 404 का उपयोग करना आवश्यक है।)

हालाँकि, यदि आप अभी भी नियमित उपयोगकर्ताओं को URL टाइप करके साइट तक पहुँचने में सक्षम होना चाहते हैं, तो यह एक समस्या है - क्योंकि आपकी सामग्री अब उपलब्ध नहीं है। आप इसे पासवर्ड दे सकते हैं, जैसा कि ज़िस्टोलोइन सुझाव देता है, हालांकि यह डिफ़ॉल्ट रूप से एक 403 (निषिद्ध) लौटाएगा जिसे आपको 404/410 वापस करने के लिए ओवरराइड करना होगा। आप सकता है क्लोक अपनी सामग्री, Googlebot पर एक 410 लौटने और बाकी सब प्रवेश करने की अनुमति - SERPs में परिणाम पर क्लिक लोगों के बारे में है, लेकिन क्या?

लेकिन अगर आप चाहते हैं कि Google आपकी सामग्री को सबसे तेज़ समय में हटा दे, तो आपको इसे "Google" इंटरनेट से निकालने की आवश्यकता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.