क्या मैं अपने robots.txt की जांच के लिए Google को आमंत्रित कर सकता हूं?


11

मैं इस प्रश्न के उत्तर पढ़ता हूं, लेकिन वे अभी भी मेरे प्रश्न को खुला छोड़ देते हैं: क्या Google cache robots.txt है?

मुझे Google Webmaster Tools में अपने robots.txt का पुनः डाउनलोड करने का एक तरीका नहीं मिला ।

कुछ त्रुटि के माध्यम से, मेरे robots.txt को बदल दिया गया था:

User-agent: *
Disallow: /

और अब मेरी सभी सामग्री Google खोज परिणामों से हटा दी गई थी।

जाहिर है, मैं इसे जल्द से जल्द सही करने में दिलचस्पी रखता हूं। मैंने पहले से ही robots.txt को बदल दिया है , लेकिन मुझे Google को कैश्ड संस्करण को अपडेट करने का तरीका नहीं मिल रहा है।

यहाँ छवि विवरण दर्ज करें


1
Robots.txt में आपके सभी पेजों को बंद करना आम तौर पर Google के परिणामों से पूरी तरह से हटाने के लिए पर्याप्त नहीं होना चाहिए , जब तक कि अन्य साइटें अभी भी उनसे लिंक नहीं करती हैं।
इल्मरी करोनन

हम्म इसकी एक मुश्किल। ZenCart URL, robots.txt वेब क्रॉलर बॉट को भ्रमित करते हैं और इससे पहले कि आप इसे जानते हैं, आपने URL को ब्लॉक कर दिया है जिसे आप ब्लॉक नहीं करना चाहते हैं। मेरा अनुभव है कि आप robots.txt के बिना बेहतर हैं, लेकिन सिर्फ एक साफ वेब साइट रखते हैं। मान्य URL को ब्लॉक करने वाले इस robots.txt त्रुटि के कारण मैंने कई वेब रैंक स्थान खो दिए हैं। क्योंकि ZenCart डायनामिक URL का उपयोग करता है, ऐसा लगता है कि robots.txt वेब क्रॉलर को भ्रमित करता है जिसके परिणामस्वरूप वे URL अवरुद्ध हो जाते हैं जिनकी आपको अवरुद्ध होने की उम्मीद नहीं है। यकीन नहीं होता है कि यह

जवाबों:


10

जब आप उन्हें चाहते हैं तो आप उन्हें अपने robots.txt को फिर से डाउनलोड नहीं कर सकते। जब भी उन्हें लगे कि यह आपकी साइट के लिए उपयुक्त है, Google उसे फिर से क्रॉल करेगा और नए डेटा का उपयोग करेगा। वे इसे नियमित रूप से क्रॉल करते हैं, इसलिए मैं यह अपेक्षा नहीं करूंगा कि आपकी अपडेट की गई फ़ाइल को ढूंढने में आपका समय लग जाए और आपके पृष्ठ फिर से क्रॉल और पुनः अनुक्रमित हो जाएं। ध्यान रखें कि नई robots.txt फ़ाइल के मिलने के बाद कुछ समय लग सकता है, इससे पहले कि आपके पृष्ठ फिर से क्रॉल किए जाएं और उनके लिए और अधिक समय Google के खोज परिणामों में फिर से दिखाई दे।


1
उनके अनुसार वे हर दिन या तो जाँच करते हैं, लेकिन वे शायद व्यस्त साइटों के लिए अधिक बार जांचते हैं। Webmasters.stackexchange.com/a/32949/17430 देखें ।
स्टूडियोज

1

मुझे उसी समस्या का सामना करना पड़ा जब मैंने www.satyabrata.com16 जून को अपनी नई वेबसाइट शुरू की ।

मैं Disallow: /अपने रोबो.नेट में था , बिल्कुल ओलिवर की तरह। अवरुद्ध URL के बारे में Google वेबमास्टर टूल में एक चेतावनी संदेश भी था।

समस्या का हल कल, 18 जून को किया गया। मैंने निम्नलिखित कार्य किया। मुझे यकीन नहीं है कि किस कदम ने काम किया।

  1. स्वास्थ्य -> ​​Google के रूप में प्राप्त करें: robots.txt और मुख पृष्ठ। फिर, इंडेक्स पर सबमिट करें।
  2. सेटिंग -> पहले से रखा हुआ डोमेन: प्रदर्शन URL के रूप में www.satyabrata.com
  3. अनुकूलन -> साइटमैप: XML साइटमैप जोड़ा गया।

अवरुद्ध URL के बारे में चेतावनी संदेश अब चला गया है और Google Webmaster Tools में एक ताज़ा robots.txt डाउनलोड किया गया है।

वर्तमान में, मेरे पास Google में केवल दो पृष्ठ हैं, मुख पृष्ठ और robots.txt । वेबसाइट पर मेरे 10 पेज हैं। मुझे उम्मीद है कि बाकी जल्द ही अनुक्रमित हो जाएंगे।


0

मुझे एक समस्या थी जहां छवियों को एक अलग CNAME सर्वर में ले जाया गया था और छवियों फ़ोल्डर में एक अस्वीकृति रखी गई थी। जिस तरह से मुझे यह स्पष्ट हो गया था कि वेबमास्टर टूल्स को पुनः प्राप्त करना था। एक बार जब उसने मुझे बताया कि उसने पुनः प्राप्त कर लिया है और robots.txt को पढ़ लिया है, तो मैंने उसे जमा कर दिया। इसने स्कैनिंग छवियों पर तीन महीने का प्रतिबंध तोड़ दिया जहां Google ने बताया कि वह robots.txt फ़ाइल पढ़ रहा था, लेकिन छवि फ़ोल्डर की अनुमति देने के लिए बदले गए नियमों से मेल खाने के लिए अपने स्पाइडरिंग को नहीं बदल रहा था। एक सप्ताह के भीतर, छवियों को फिर से अनुक्रमित किया जा रहा था।

एक कोशिश शायद रंग ला सकती है। Google को कभी-कभी अटक जाने और फ़ाइल को पुनः जारी करने में विफल होने के लिए जाना जाता है।


उन्होंने मेरे पोस्ट करने के लगभग 6 घंटे बाद फाइल को दोबारा पढ़ा। अब तक सब कुछ सामान्य हो चुका है।
डेर होकस्टापलर

वाह! वापस ट्रैक पर!
फियास्को लैब्स

मैंने robots.txt लाने के लिए वेबमास्टर टूल से पूछने की कोशिश की, उसने शिकायत की कि वह robots.txt :) द्वारा अस्वीकार कर दिया गया था। तो जाहिर है कि अगर आप एक पूर्ण ब्लॉक कर रहे हैं।
स्टूडियोज

यहां भी ... robots.txt द्वारा robots.txt से इनकार किया गया! हा!
कासापो

Whelp, अगर आप रूट पर इनकार करते हैं, तो मुझे लगता है कि आप SOL की तरह हैं। मेरे मामले में, यह एक सबफ़ोल्डर था जिसे अस्वीकार किया जा रहा था, इसलिए वास्तव में काम करने वाले तंत्रों के माध्यम से robots.txt के फिर से चालू करने के लिए मजबूर किया गया।
Fiasco लैब्स


-1

मेरे मामले में समस्या यह थी कि मैं एक मुफ्त DNS सेवा का उपयोग कर रहा था, जिसका नाम डर था।

(मेरा निःशुल्क डोमेन समाप्त हो गया .us.to)

एक बार जब मैंने एक TLD को संक्रमण किया, तो इसने काम करना शुरू कर दिया।


मैं यह नहीं देखता कि डीएनएस या फ्री साइट का रोबॉट्स से क्या लेना-देना है।
स्टीफन Ostermiller

@StephenOstermiller: मैं या तो नहीं देखता, लेकिन तथ्य यह है, इससे मेरे मामले में मदद मिली।
स्टीफन मोनोव

इसने Google को आपके robots.txt की जांच करने में मदद की?
स्टीफन Ostermiller

@StephenOstermiller: हाँ।
स्टीफन मोनोव
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.