किसी पृष्ठ के विशिष्ट भाग को क्रॉल करने से रोबोट को रोकना


28

एक छोटी साइट के प्रभारी एक वेबमास्टर के रूप में, जिसके पास एक मंच है, मुझे नियमित रूप से उपयोगकर्ताओं से शिकायत मिलती है कि दोनों आंतरिक खोज इंजन और बाहरी खोज (जैसे कि Google का उपयोग करते समय) मेरे उपयोगकर्ताओं के हस्ताक्षरों द्वारा पूरी तरह से प्रदूषित हैं (वे लंबे समय का उपयोग कर रहे हैं) हस्ताक्षर और यह मंच के अनुभव का हिस्सा है क्योंकि हस्ताक्षर मेरे मंच में बहुत मायने रखते हैं)।

इसलिए मूल रूप से मैं अब तक दो विकल्प देख रहा हूं:

  1. हस्ताक्षर को चित्र के रूप में प्रस्तुत करना और जब कोई उपयोगकर्ता "हस्ताक्षर चित्र" पर क्लिक करता है, तो यह उस पृष्ठ पर ले जाया जाता है, जिसमें वास्तविक हस्ताक्षर होते हैं (हस्ताक्षर आदि में लिंक के साथ) और वह पृष्ठ खोज द्वारा गैर-क्रॉल के रूप में सेट किया गया है इंजन मकड़ियों)। यह कुछ बैंडविड्थ का उपभोग करेगा और कुछ काम करने की आवश्यकता होगी (क्योंकि मुझे चित्र बनाने वाले HTML रेंडरर की आवश्यकता होगी)) लेकिन जाहिर है कि यह समस्या को हल करेगा (इसमें छोटे गोचर्स हैं जो हस्ताक्षर फ़ॉन्ट / रंग योजना का सम्मान नहीं करेंगे। उपयोगकर्ता लेकिन मेरे उपयोगकर्ता वैसे भी अपने हस्ताक्षरों के साथ बहुत रचनात्मक हैं, कस्टम फोंट / रंगों / आकार आदि का उपयोग कर रहे हैं, इसलिए यह बहुत अधिक नहीं है)।

  2. वेबपृष्ठ के प्रत्येक भाग को चिह्नित करना जिसमें गैर-क्रॉल होने के रूप में हस्ताक्षर हैं।

हालांकि मुझे बाद के बारे में निश्चित नहीं है: क्या यह कुछ ऐसा है जो किया जा सकता है? क्या आप किसी वेबपेज के गैर-क्रॉल के रूप में विशिष्ट भागों को चिह्नित कर सकते हैं?

जवाबों:


8

यहाँ वही उत्तर है जो मैंने स्टैक ओवरफ्लो पर Google के लिए noindex टैग को दिया था :

आप Google को iframes में उन हिस्सों को डालकर पृष्ठ के भाग देखने से रोक सकते हैं जो robots.txt द्वारा अवरुद्ध हैं।

robots.txt

Disallow: /iframes/

index.html

This text is crawlable, but now you'll see 
text that search engines can't see:
<iframe src="/iframes/hidden.html" width="100%" height=300 scrolling=no>

/iframes/hidden.html

Search engines cannot see this text.

Iframes का उपयोग करने के बजाय, आप AJAX का उपयोग करके छिपी हुई फ़ाइल की सामग्री को लोड कर सकते हैं। यहाँ एक उदाहरण है जो ऐसा करने के लिए jquery ajax का उपयोग करता है:

his text is crawlable, but now you'll see 
text that search engines can't see:
<div id="hidden"></div>
<script>
    $.get(
        "/iframes/hidden.html",
        function(data){$('#hidden').html(data)},
    );
</script>

AJAX का उपयोग करके नियंत्रण जोड़ना / इंजेक्ट करना, उसी को क्रॉल करने से रोकने और रोकने में मदद करेगा?
प्रणव बिलूरकर

जब तक AJAX जिस स्थान से प्राप्त हो रहा है, वह robots.txt द्वारा अवरुद्ध है।
स्टीफन Ostermiller

क्या आप कृपया इस वेबमास्टर्स . stackexchange.com/questions/108169/… की जाँच करेंगे और यदि कोई हो तो सुझाव दें।
प्रणव बिलूरकर

जब तक AJAX जिस स्थान से प्राप्त हो रहा है, उसे robots.txt द्वारा अवरुद्ध किया जाता है - कृपया इस पर विस्तार से बताएं।
प्रणव बिलूरकर

2
Google उन लोगों को दंडित करता है जो अपनी जावास्क्रिप्ट को क्रॉल होने से रोकते हैं, ताकि दुरुपयोग को रोका जा सके। क्या इफराम का भी यही सच है?
जोनाथन

7

एक अन्य उपाय यह है कि एसआईजी को एक स्पैन में लपेटें या स्टाइल सेट के साथ डिव करें display:noneऔर फिर जावास्क्रिप्ट का उपयोग करें ताकि वह दूर ले जाए ताकि टेक्स्ट ब्राउजर के लिए जावास्क्रिप्ट के साथ प्रदर्शित हो। खोज इंजन जानते हैं कि यह प्रदर्शित नहीं होने वाला है इसलिए इसे अनुक्रमित नहीं करना चाहिए।

HTML, CSS और जावास्क्रिप्ट के इस बिट को यह करना चाहिए:

HTML:

<span class="sig">signature goes here</span>

सीएसएस:

.sig {
display:none;
}

जावास्क्रिप्ट:

<script type="text/javascript"> 
$(document).ready(function()
  {
      $(".sig").show();
  }
</script>

आपको एक jquery लाइब्रेरी शामिल करनी होगी ।


4
+1 और मैंने इसके बारे में सोचा लेकिन क्या इसे विभिन्न मकड़ियों द्वारा "क्लोकिंग" का रूप नहीं माना जाएगा?
WebbyTheWebbor

3
Google द्वारा नहीं: theseonewsblog.com/3383/google-hidden-text
paulmorriss

1
मुझे लगता है कि यह काफी साफ-सुथरा है :-)
पैूलमोरिस

यह, सबसे सख्त परिभाषा में, क्लोकिंग माना जा सकता है। हालाँकि वह एक दस्तावेज़ का उपयोग करके जावास्क्रिप्ट के साथ हस्ताक्षर के सभी प्रिंट कर सकता था। ("");) Google जावास्क्रिप्ट के भीतर कुछ भी अनुक्रमित नहीं करता है। support.google.com/customsearch/bin/…
एथॉक्सक्स

मेरा मानना ​​है कि Google ऐसे पैराग्राफों को अनुक्रमित कर सकता है, भले ही वे सीएसएस का उपयोग कर छिपे हों। सबसे सुरक्षित विकल्प HTML में पाठ को बिल्कुल शामिल नहीं करना है। (हम रनटाइम पर टेक्स्ट को इंजेक्ट करने के लिए जावास्क्रिप्ट का उपयोग कर सकते हैं।)
wrygiel

3

मुझे एक समान समस्या थी, मैंने इसे सीएसएस के साथ हल किया लेकिन यह जावास्क्रिप्ट और jquery के साथ भी किया जा सकता है।

1 - मैंने एक वर्ग बनाया जिसे मैं " disallowed-for-crawlers" कहूंगा और उस कक्षा को हर उस चीज़ में रखूँगा जो मैं नहीं चाहता था कि Google बॉट को देखे, या उस वर्ग के साथ एक स्पैन के अंदर रखें।

2 - पृष्ठ के मुख्य सीएसएस में मेरे पास कुछ ऐसा होगा

.disallowed-for-crawlers {
    display:none;
}

3- एक सीएसएस फ़ाइल बनाएं जिसे disallow.css कहा जाता है और उसे जोड़ने के लिए robots.txt को क्रॉल किया जा सकता है, इसलिए क्रॉलर उस फ़ाइल तक नहीं पहुंच सकते हैं, लेकिन मुख्य सीएसएस के बाद इसे अपने पृष्ठ के संदर्भ में जोड़ सकते हैं।

4- disallow.cssमैंने कोड रखा:

.disallowed-for-crawlers {
    display:block !important;
}

आप जावास्क्रिप्ट या सीएसएस के साथ खेल सकते हैं। मैंने सिर्फ डिस्लो और सीएसएस कक्षाओं का लाभ उठाया। :) उम्मीद है कि यह किसी की मदद करता है।


मुझे यकीन नहीं है कि क्रॉलर .css फ़ाइल तक नहीं पहुंचने के कारण यह काम करता है (क्या यह एक चीज़ है? कब से क्रॉलर एक्सेस करते हैं और विशिष्ट css फ़ाइलों को क्रॉल करते हैं?) और केवल प्रदर्शन के कारण नहीं: कोई भी और क्रॉलर यह नहीं समझ पाएंगे? वे इसे अनुक्रमित नहीं करते हैं। यहां तक ​​कि अगर यह मामला है, तो आप वास्तव में मानव उपयोगकर्ताओं को सामग्री प्रदर्शित करने के लिए क्या करते हैं?
ςροΣπύ ύούλα

सामग्री को प्रदर्शित किया जाता है जब चरण 4 को मानव उपयोगकर्ता के लिए लोड किया जाता है क्योंकि उन्हें उस फ़ाइल को देखने की अनुमति दी जाती है (disallow.css)। और CSS लोड करने वाले रोबॉट्स के बारे में, जो आजकल सम्मानजनक सर्च इंजन करते हैं, यह है कि वे कैसे निर्धारित करते हैं कि कोई वेबसाइट मोबाइल फ्रेंडली है या नहीं, क्रॉलर्स जो इसका सम्मान नहीं करते हैं, वे चिंता करने के लायक नहीं हैं, प्रमुख सर्च इंजन css और जावास्क्रिप्ट को क्रॉल करने के लिए पढ़ते हैं पृष्ठ, वे लगभग 6 वर्षों के लिए ... अब यह कर रहे हैं? शायद और।
रोलैंडो रेटाना

क्या आप ऐसे स्रोत प्रदान कर सकते हैं जो उस दावे का समर्थन करते हैं? कृपया webmasters.stackexchange.com/questions/71546/… और yoast.com/dont-block-css-and-js-files देखें और सबसे महत्वपूर्ण बात यहाँ webmasters.googleblog.com/2014/10// देखें जो आपके द्वारा वर्णित किया गया है जितना बुरा अभ्यास।
ςροΣπύ ύούλα

यह एक बुरा अभ्यास है अगर मैं चाहता था कि Google मेरी वेबसाइट को सामान्य रूप से देखे और मैं सभी सीएसएस को अवरुद्ध करूं, और बुरा अभ्यास है क्योंकि वे सीएसएस की व्याख्या करते हैं, लेकिन इस विशिष्ट मामले में मैं एक विशिष्ट फ़ाइल को अवरुद्ध करता हूं, सभी सीएसएस की नहीं, ओपी पूछते हैं। पृष्ठ के एक भाग को पढ़ने से Google को रोकने के बारे में। लेकिन मैं नहीं चाहता कि Google उन वर्गों को क्रॉल करे, इसलिए मैं एक सिंगल सीएसएस (उन सभी को नहीं, सिर्फ एक को) ब्लॉक करता हूं। और आपने जो दावा किया है उसका समर्थन करने के लिए? वह जो क्रॉलर जेएस और सीएसएस पढ़ता है? यह आपके Google वेबमास्टर टूल्स पर जाने जितना आसान है और "Fetch as a robot" पर एक नज़र डालें, आप देखेंगे कि कैसे वे css और js पढ़ते हैं।
रोलैंडो रेटाना

जोड़ने के लिए, मेरे विशिष्ट मामले में यह नहीं है कि मैं Google क्रॉलर के साथ कुछ छायादार करना चाहता हूं, मैं नहीं चाहता कि Google जानकारी के एक अनुभाग को पढ़े जो सभी पृष्ठों में दोहराव लग सकता है। जैसे फ़ोन नंबर, पते, संबंधित उत्पाद या जानकारी जो क्रॉल करने के लिए Google के लिए प्रासंगिक नहीं है।
रोलैंडो रेटाना

2

इसका एक तरीका यह है कि सादे पाठ के बजाय पाठ की छवि का उपयोग किया जाए ।

यह संभव है कि Google अंततः छवि से बाहर पाठ को पढ़ने के लिए पर्याप्त स्मार्ट होगा, इसलिए यह पूरी तरह से भविष्य के प्रमाण नहीं हो सकता है, लेकिन इसे अभी से कम से कम कुछ समय के लिए अच्छी तरह से काम करना चाहिए।

इस दृष्टिकोण के लिए नुकसान का एक गुच्छा है। यदि कोई व्यक्ति दृष्टिहीन है, तो यह बुरा है। यदि आप चाहते हैं कि आपकी सामग्री मोबाइल डिवाइस बनाम डेस्कटॉप कंप्यूटर के अनुकूल हो, तो यह बुरा है। (और इसी तरह)

लेकिन यह एक तरीका है जो वर्तमान में (कुछ) काम करता है।


यदि आप ऑल्ट एंड टाइटल टेज का उचित रूप से उपयोग करते हैं तो यह कितना अच्छा काम करता है?
Jayen

कोशिश नहीं की गई है, लेकिन ऐसा लगता है कि Google उन लोगों को क्रॉल करेगा। यह इस दृष्टिकोण की एक प्रमुख सीमा है।
जेम्स फोस्टर

1

यह आसान है।

अपने पृष्ठ की सेवा करने से पहले आपको यह जानना होगा कि यह बॉट, कंप्यूटर या फोन के लिए है या नहीं। फिर आपको तदनुसार सामग्री सेट करने की आवश्यकता है। यह इस दिन और मानक उम्र और कुछ सीएमएस की मुख्य कार्यक्षमता में मानक अभ्यास है।

USER AGENT के आधार पर पुनर्निर्देशन करने के लिए SE पर बहुत सारे समाधान हैं जो आपके htaccess में डाले जा सकते हैं। यदि यह आपके फ़ोरम सॉफ़्टवेयर को सूट करता है, तो आप उसी DB से अलग कोड चला सकते हैं, जिसमें यह दिया जा सके कि Google को chaff और ट्रिमिंग के बिना क्या चाहिए।

वैकल्पिक रूप से आप अपने PHP कोड में एक छोटी सी लाइन डाल सकते हैं जो 'अगर USER AGENT == Googlebot है तो हस्ताक्षर नहीं दिखाएंगे'।

यदि आप वास्तव में ऐसा नहीं कर सकते हैं, तो आप bot की सेवा करने के लिए mod_proxy प्राप्त कर सकते हैं और इसका उपयोग कुछ भी करने के लिए कर सकते हैं, जो आपके php कोड को उत्पन्न करता है, जिसे bot को देखने की आवश्यकता नहीं है।

तकनीकी रूप से Google को अपने खोज इंजन की स्वीकृति नहीं मिलती है कि सामान्य साइट आगंतुक क्या देखता है, एक अलग पृष्ठ दिखाया गया है, हालाँकि, आज तक, उन्होंने बीबीसी और अन्य को नहीं लिया है जो उनके खोज इंजन परिणामों से ब्राउज़र / आईपी / आगंतुक-विशिष्ट सामग्री प्रदान करते हैं। । उनके पास यह देखने के लिए सीमित साधन हैं कि क्या उनके बॉट को 'कंसीड' किया गया है।

एक स्क्रिप्ट द्वारा इसे फिर से सक्षम करने के लिए सीएसएस के साथ सामग्री को छिपाने का वैकल्पिक समाधान भी एक ग्रे क्षेत्र का एक सा है। 20/6/11 के अपने स्वयं के वेबमास्टर टूल दिशानिर्देशों के अनुसार यह एक अच्छा विचार नहीं है:

http://www.google.com/support/webmasters/bin/answer.py?answer=66353

हो सकता है कि यह पत्थर की गोली न हो, लेकिन यह आज तक और गूगल द्वारा बनाई गई है।

सामग्री की चाल को छिपाना उन लोगों के अल्पसंख्यक के साथ काम नहीं करेगा जिनके पास जावास्क्रिप्ट नहीं है, यह एक बड़ी चिंता का विषय नहीं हो सकता है, हालांकि, दस्तावेज़ को लोड करने के लिए इंतजार करना और फिर हस्ताक्षर दिखाना आपके लिए एक संतोषजनक देखने का अनुभव नहीं होगा। लगता है कि पेज लोड हो गया है, तो यह इस बारे में कूद जाएगा कि छिपे हुए हस्ताक्षर दिखाए गए हैं और फिर पृष्ठ की सामग्री को नीचे धकेल दें। यदि आपके पास कम-नेट नेट-टॉप है, तो इस प्रकार का पेज लोड परेशान कर सकता है, लेकिन अगर आपके पास तेज़ इंटरनेट कनेक्शन पर तेज़ डेवलपर्स मशीन है, तो यह ध्यान देने योग्य नहीं है।


6
@ @: पेज एक्सेस करने वाले के आधार पर अलग-अलग सामग्री परोसना थोड़े पर आधारित है और जहां तक ​​मैं इसे समझता हूं, आपको खोज इंजन में दंडित कर सकता है। मैं पॉलमोरिस के जावास्क्रिप्ट समाधान को ज्यादा पसंद करता हूं।
वेबबाईवेबोर

@ @: erf, यदि व्यक्तिगत सामग्री परोसना खेल का नाम है, तो जावास्क्रिप्ट है। पिछली बार मैंने वेब की जाँच की थी कि वास्तव में जावास्क्रिप्ट के बिना वास्तव में काम नहीं किया (GMail, FaceBook, Google डॉक्स, स्टैक ओवरफ़्लो, Google+ - मैं इसे पहले ही प्राप्त कर चुका हूँ;) - आदि)। मुझे झूठे आधार पर पॉलमोरिस के समाधान की आलोचना करने की कोई आवश्यकता नहीं है कि जावास्क्रिप्ट उपलब्ध नहीं है एक मुद्दा होगा।
WebbyTheWebbor

@ ʍǝɥʇɐɯ: आप कि बहुत विषय पर मैट कट्स (गूगल पर एसईओ के आरोप में) से इस तरह हो सकता है: theseonewsblog.com/3383/google-hidden-text द्वारा उत्कृष्ट टिप्पणी था paulmorris अपने उत्कृष्ट जवाब देने के लिए टिप्पणी में तैनात। मुझे खेद है लेकिन ऐसे मंच पर जावास्क्रिप्ट को "मूर्खतापूर्ण" कहना ट्रोलिंग के करीब है।
WebbyTheWebbor

... और फिर हमें यह प्रश्न मिलता है: webmasters.stackexchange.com/questions/16398/… - 'कीवर्ड स्टफिंग' मूर्खतापूर्ण है। उसके लिए माफ़ करना।
ʍǝɥʇɐɯ

मेरा मानना ​​है कि यह "क्लोकिंग" के अंतर्गत आता है और इसलिए यह एक अच्छा अभ्यास नहीं है।
ςροΣπύ ύούλα

0

नहीं, पृष्ठों के रेंगने वाले रोबोट को रोकने का कोई तरीका नहीं है। यह एक पूरा पृष्ठ है या कुछ भी नहीं है।

Google के खोज परिणामों में स्निपेट आमतौर पर पृष्ठ पर मेटा विवरण से लिए जाते हैं । इसलिए आप मेटा विवरण टैग में डालकर Google को पृष्ठ का एक विशिष्ट भाग दिखा सकते हैं। उपयोगकर्ता-जनित सामग्री के साथ अच्छे स्निपेट प्राप्त करना मुश्किल है, लेकिन थ्रेड का पहला पद लेना शायद काम करेगा।

केवल एक और तरीका है जिसके बारे में मैं जावास्क्रिप्ट का उपयोग कर सकता हूं। सुझाए गए पॉल्मोरिस जैसे कुछ काम कर सकते हैं, लेकिन मुझे लगता है कि खोज इंजन अभी भी सामग्री को इंडेक्स करेगा यदि यह HTML में है। आप इसे HTML से निकाल सकते हैं, इसे जावास्क्रिप्ट स्ट्रिंग में संग्रहीत कर सकते हैं, फिर इसे पेज लोड पर वापस जोड़ सकते हैं। हालांकि यह थोड़ा जटिल है।

अंत में, एक बात ध्यान में रखें: यदि Google अपने स्निपेट्स में उपयोगकर्ता के हस्ताक्षर दिखा रहा है, तो उसने निर्णय लिया है कि उपयोगकर्ता की क्वेरी के लिए सबसे अधिक प्रासंगिक है।


1
समस्या इतनी अधिक नहीं है कि Google अपने स्निपेट में उपयोगकर्ता के प्रकार दिखा रहा है क्योंकि ये विशिष्ट पृष्ठ पहले स्थान पर Google में उच्च रैंक प्राप्त कर रहे हैं। यहाँ यह मुद्दा ठीक है कि Google को लगता है कि sigs तब प्रासंगिक होते हैं जब वे वास्तव में नहीं होते हैं: मेरा मतलब है, यह वही है जो मेरा सवाल है।
WebbyTheWebbor

@Webby, मुझे समझ में नहीं आता, आप अपने पृष्ठों को उच्च रैंकिंग क्यों नहीं चाहते हैं? क्या आपके पास कुछ उदाहरण पृष्ठ और प्रश्न हैं ताकि हम देख सकें कि आप किस बारे में बात कर रहे हैं? और अगर Google खोज परिणामों में एक sig दिखाया जा रहा है, तो यह है कि खोज क्वेरी के लिए प्रासंगिक, भले ही वह स्वयं पृष्ठ के लिए प्रासंगिक नहीं है।
असंतुष्टGoat

1
मैं उदाहरण नहीं दे सकता है, लेकिन मैं करना अत्यधिक पद के लिए मेरी साइट / मंच चाहते हैं और यह तो बहुत अच्छी तरह से करता है। समस्या यह है कि खोज परिणामों के बीच (जो कि ज्यादातर मेरी साइट / मंच के लिए वैसे भी हैं क्योंकि यह मूल रूप से इस विषय पर साइट है), वास्तविक प्रवेश पृष्ठ क्या होना चाहिए हस्ताक्षर के बीच बाढ़ आ गई है। मेरा मतलब है, मैं करना वास्तव में क्या मैं प्रश्न में पूछा क्या करना चाहते हैं। और चित्र या जावास्क्रिप्ट यह होने जा रहा है।
WebbyTheWebbor

@Webby, आपकी प्रतिक्रियाएँ थोड़ी भ्रमित करने वाली हैं, लेकिन आपको लगता है कि आपके उपयोगकर्ता के हस्ताक्षर सभी अलग-अलग पृष्ठ (URL) हैं और इस प्रकार SERPs में अलग-अलग परिणाम दिखाई दे रहे हैं। जिस स्थिति में आप उन पृष्ठों को robots.txt के माध्यम से ब्लॉक कर सकते हैं। अन्यथा, मैं ऊपर वर्णित मेटा विवरण समाधान का प्रयास करता हूं, क्योंकि यह समस्या को लगभग कम कर देगा।
असंतुष्टगीत

0

आप पृष्ठ को PHP में रख सकते हैं यदि "और" के साथ जो कैप्चा की ओर ले जाता है जो कि अगर भाग के लिए कुंजी देता है।

मुझे वास्तव में परवाह नहीं है क्योंकि यदि उपयोगकर्ता क्रेडेंशियल मेरे पृष्ठ पर मेल नहीं खाते हैं तो उन्हें एक खाली पृष्ठ मिलता है या लॉगिन पृष्ठ पर भेजा जाता है।

<?php
session_start();

if(empty($_SESSION['captcha']) or $_SESSION['captcha'] != $key){
    header("Location: captcha.php");
}

if(!empty($_SESSION['captcha']) and $_SESSION['captcha'] == $key){

"the page"

}
?>

$key वर्तमान दिन का एक हैश होना चाहिए या ऐसा कुछ होना चाहिए जो सत्र में मूल्य जोड़ने के लिए पर्याप्त नहीं है।

टिप्पणी में लिखें यदि आप चाहते हैं कि मैं एक उदाहरण कैप्चा जोड़ दूं क्योंकि मेरे पास अब मुझ पर एक नहीं है।


यह उत्तर उन वेबसाइटों का उपयोग करता है या डेवलपर PHP को जानता है जो सच नहीं हो सकता है। साथ ही, यह उन उपयोगकर्ताओं के लिए सामग्री को प्राप्त करना कठिन बनाता है जो अच्छी बात नहीं है।
जॉन कोंडे

मैं खरीद सकता हूं कि हर एक PHP को नहीं जानता है, लेकिन एक कैप्चा "घास का रंग क्या है" हो सकता है, यहां तक ​​कि अंधा पेपोल भी जानता है।
अल्फोंस मार्कलेन

-3

जाहिर है, <! - googleoff: all -> और <-! Googleon: all -> वही करें जो आप चाहते हैं।

और पढ़ें https://www.google.com/support/enterprise/static/gsa/docs/admin/70/gsa_doc_set/admin_crawl/preparing.html#1076243

https://perishablepress.com/tell-google-to-not-index-certain-parts-of-your-page/


4
नहीं। Googleoff और Googleon केवल Google खोज उपकरण द्वारा समर्थित हैं। Googlebot वेब खोज के लिए उनकी उपेक्षा करता है। संदर्भ: क्या आप Googlebot और googleoff टिप्पणियों का उपयोग करके Googlebot को एक पृष्ठ के भाग को अनुक्रमणित करने से रोक सकते हैं? आप Google खोज उपकरण प्रलेखन से जुड़े हैं और आपके द्वारा लिंक किए गए लेख पर एक टिप्पणी यह ​​भी कहती है कि यह Googlebot के लिए काम नहीं करता है।
स्टीफन Ostermiller

@StephenOstermiller ओह ठीक है! डारन
ल्यूक मधांग
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.