मैं शीतल 404 त्रुटियों को "कोई परिणाम नहीं" पृष्ठ के लिए जमा करने से कैसे रोकूं?


9

हाल ही में, मैंने देखा कि मेरे पास Google वेबमास्टर टूल्स में सॉफ्ट 404 त्रुटियों की बढ़ती सूची है। वे सभी गतिशील रूप से उत्पन्न खोज परिणाम पृष्ठों के लिए हैं जो "कोई मिलान नहीं मिला" रिपोर्ट करते हैं।

मैं करना समझ में गूगल द्वारा इसका मतलब क्या सॉफ़्ट 404 और क्यों वे इन पृष्ठों के लिए यह रिपोर्ट कर रहे हैं। इसलिए मैंने <meta name="robots" content="noindex">इन पृष्ठों में जोड़ा ।

हालाँकि, Google अभी भी उन पृष्ठों के लिए नई सॉफ्ट 404 त्रुटियों की रिपोर्ट कर रहा है जो नोइंडेक्स मेटा टैग का उपयोग कर रहे हैं ।

Google ने उस पृष्ठ के लिए किसी त्रुटि की रिपोर्ट क्यों की जिसे मैंने उन्हें अनुक्रमणिका में नहीं बताया था?

समस्या यह है कि इन सभी अवांछित त्रुटियों के साथ, मैं नहीं देख सकता कि क्या कोई वास्तविक समस्या है जिसे ठीक करने की आवश्यकता है।

कुछ ने कहा है कि इन पृष्ठों को 404 स्थिति कोड वापस करना चाहिए। लेकिन यह सिर्फ 404 त्रुटियों टैब पर समस्या को स्थानांतरित करता है। इसके अलावा, Google अपने परिणाम पृष्ठ के लिए स्थिति कोड 200 लौटाता है ।

मैं robots.txt के साथ पहुँच को अवरुद्ध नहीं करना चाहता क्योंकि मैं इन पृष्ठों पर दिए गए लिंक चाहता हूँ और मैं चाहता हूँ कि Google noindex मेटा टैग को देखे । इसके अलावा, ऐसा कोई पैटर्न नहीं है जिसका उपयोग मैं इन्हें ब्लॉक करने के लिए कर सकूं।

Google ने इन URL को पहले स्थान पर पाया क्योंकि सामग्री मौजूद थी, लेकिन तब से हटा दी गई है। मैं 410 स्थिति कोड वापस नहीं कर सकता, क्योंकि मेरे PHP कोड का कारण जानने का कोई तरीका नहीं है कि कोई परिणाम क्यों नहीं मिला।

क्या वास्तविक समस्याओं को देखने में आसान बनाने के लिए मैं कुछ भी कर सकता हूं?


Google उन खोज URL को कैसे खोज रहा है? क्या आप उन्हें कहीं से जोड़ रहे हैं?
असंतुष्टगीतगोत

फॉलोअप प्रश्न देखें: webmasters.stackexchange.com/q/55624/33777
टोक्सीलॉट

@DisgruntledGoat, मैंने देखा है कि मेरी कई वेबसाइटों पर। Googlebot को खोज करने की क्षमता दी गई है। मुझे यकीन नहीं है कि क्या वास्तव में समस्या थी। लेकिन मैं कभी भी उनकी अजीब खोजों के लिए दूसरा स्रोत नहीं खोज पाया
एलेक्सिस विल्के

जवाबों:


7

आपको Google को साइट खोज पृष्ठों को क्रॉल करने से रोकना चाहिए। Google आपकी साइट खोज को बिल्कुल भी क्रॉल नहीं करना चाहता है । इस मुद्दे के बारे में Google का मैट कट्स ब्लॉग पोस्ट है: 10 मार्च, 2007 को मैट कट्स द्वारा खोज परिणामों में खोज । Google अब उन साइटों को सक्रिय रूप से दंडित करता है जो उनके साइट खोज परिणामों को क्रॉल करने की अनुमति देती हैं और Google के SERPs में दिखाई देती हैं। Googlebot को आपके खोज परिणाम पृष्ठों को क्रॉल करने की अनुमति देकर, आप अपने सभी Google रेफरल ट्रैफ़िक को जोखिम में डाल रहे हैं । Google समीक्षक की एक पसंदीदा तरकीब है कि आप अपनी साइट खोज का उपयोग "वियाग्रा" जैसे स्पैम शब्दों के लिए करें। जब उन्हें परिणाम के रूप में एक क्रॉल करने योग्य पृष्ठ दिखाई देता है (भले ही यह कहता है कि "वियाग्रा के लिए कोई परिणाम नहीं मिला") वे एक स्पैम साइट के रूप में आपकी साइट के खिलाफ एक मैनुअल दंड लागू करेंगे।

आपको अपनी साइट खोज डालनी चाहिए robots.txt। बस यह सुनिश्चित करें कि Googlebot अभी भी आपके सामग्री पृष्ठों को क्रॉल कर सकता है। फिर आपको नई नरम 404 त्रुटियों की सूचना मिलनी बंद हो जाएगी।


बड़ी संख्या में 404 त्रुटियां (यहां तक ​​कि नरम 404 त्रुटियां) आपकी साइट की रैंकिंग को नुकसान नहीं पहुंचाती हैं। Google किसी भी पृष्ठ पर उन त्रुटियों की रिपोर्ट करता है, जिन्हें वे खोज सकते हैं और क्रॉल कर सकते हैं, चाहे आप इसे अनुक्रमित करना चाहते हैं या नहीं, और क्या आप इसे लिंक भी करते हैं या नहीं। वे ऐसा इसलिए करते हैं क्योंकि त्रुटि रिपोर्ट केवल आपके लाभ के लिए होती है और उन्हें लगता है कि आपको पूरी तरह से सूचित किया जाना चाहिए।

यहाँ Google के जॉन मुलर के बारे में क्या कहना है :

  1. अमान्य URL पर 404 त्रुटियां आपकी साइट की अनुक्रमणिका या किसी भी तरह से रैंकिंग को नुकसान नहीं पहुंचाती हैं। इससे कोई फर्क नहीं पड़ता कि अगर 100 या 10 मिलियन हैं, तो वे आपकी साइट की रैंकिंग को नुकसान नहीं पहुंचाएंगे। http://googlewebmastercentral.blogspot.ch/2011/05/do-404s-hurt-my-site.html
  2. कुछ मामलों में, क्रॉल त्रुटियां आपकी वेबसाइट या सीएमएस के भीतर एक वैध संरचनात्मक मुद्दे से आ सकती हैं। तुम बताओ कैसे? क्रॉल त्रुटि की उत्पत्ति को दोबारा जांचें। यदि आपके पृष्ठ के स्थिर HTML में आपकी साइट पर कोई टूटी हुई कड़ी है, तो वह हमेशा ठीक करने के लायक है। (धन्यवाद + मार्टिनो मोस्ना)
  3. "स्पष्ट रूप से टूट गए" फंकी URL के बारे में क्या? जब हमारे एल्गोरिदम आपकी साइट को पसंद करते हैं, तो वे उस पर और अधिक महान सामग्री खोजने की कोशिश कर सकते हैं, उदाहरण के लिए जावास्क्रिप्ट में नए URL की खोज करने का प्रयास करके। यदि हम उन "URL" को आज़माते हैं और 404 पाते हैं, तो यह बहुत अच्छा और अपेक्षित है। हम बस कुछ भी महत्वपूर्ण याद नहीं करना चाहते हैं (सम्मिलित करें Googlebot मेम यहां डालें)। http://support.google.com/webmasters/bin/answer.py?answer=1154698
  4. आपको वेबमास्टर टूल्स में क्रॉल त्रुटियों को ठीक करने की आवश्यकता नहीं है। यदि आप अपनी प्रगति पर नज़र रखना चाहते हैं तो "निशान के रूप में निर्धारित" सुविधा केवल आपकी मदद करने के लिए है; यह हमारी वेब-खोज पाइपलाइन में कुछ भी नहीं बदलता है, इसलिए यदि आपको इसकी आवश्यकता नहीं है, तो इसे अनदेखा करने के लिए स्वतंत्र महसूस करें। http://support.google.com/webmasters/bin/answer.py?answer=2467403
  5. हम प्राथमिकता द्वारा वेबमास्टर टूल्स में क्रॉल त्रुटियों को सूचीबद्ध करते हैं, जो कई कारकों पर आधारित है। यदि क्रॉल त्रुटियों का पहला पृष्ठ स्पष्ट रूप से अप्रासंगिक है, तो संभवतः आपको आगे के पृष्ठों पर महत्वपूर्ण क्रॉल त्रुटियां नहीं मिलेंगी। http://googlewebmastercentral.blogspot.ch/2012/03/crawl-errors-next-generation.html
  6. आपकी वेबसाइट पर त्रुटियों को "ठीक" करने की कोई आवश्यकता नहीं है। 404 की खोज सामान्य है और एक स्वस्थ, अच्छी तरह से कॉन्फ़िगर की गई वेबसाइट से अपेक्षित है। यदि आपके पास एक नया URL है, तो इसके लिए पुनर्निर्देशन एक अच्छा अभ्यास है। अन्यथा, आपको नकली सामग्री नहीं बनानी चाहिए, आपको अपने मुखपृष्ठ पर रीडायरेक्ट नहीं करना चाहिए, आपको रोबोट्स नहीं करना चाहिए। उन यूआरएल को अस्वीकार नहीं करना चाहिए - ये सभी चीजें हमें आपकी साइट की संरचना को पहचानने और इसे ठीक से संसाधित करने के लिए कठिन बनाती हैं। हम इन "नरम 404" त्रुटियों को कहते हैं। http://support.google.com/webmasters/bin/answer.py?answer=181708
  7. स्पष्ट रूप से - यदि ये क्रॉल त्रुटियां उन URL के लिए दिखाई दे रही हैं, जिनकी आप परवाह करते हैं, शायद आपकी साइटमैप फ़ाइल में URL हैं, तो यह एक ऐसी चीज है जिस पर आपको तुरंत कार्रवाई करनी चाहिए। यदि Googlebot आपके महत्वपूर्ण URL को क्रॉल नहीं कर सकता है, तो वे हमारे खोज परिणामों से हट सकते हैं, और उपयोगकर्ता उन्हें एक्सेस करने में सक्षम नहीं हो सकते हैं।

बेकार पन्नों को अनुक्रमित होने से बचाना कोई 'ट्रिक' नहीं है। Google पर किसी शब्द की खोज करने और किसी भी वास्तविक परिणाम के बजाय खोजों की एक सूची प्राप्त करने से अधिक निराशाजनक कुछ भी नहीं है। इसलिए Google इस व्यवहार को दंडित करता है। जब आप उपयोगकर्ता के दृष्टिकोण से इसके बारे में सोचते हैं तो यह स्पष्ट हो जाता है कि क्षणभंगुर खोज परिणामों को अनुक्रमित नहीं किया जाना चाहिए बल्कि सामग्री पृष्ठों को स्वयं। यही कारण है कि आपको इंडेक्सर्स के लिए साइटमैप की तरह कुछ का उपयोग करना चाहिए, और केवल उपयोगकर्ताओं के लिए शॉर्टकट के रूप में डायनामिक खोज पृष्ठों का उपयोग करना चाहिए।
जेम्सरैन

फिर Google इंडेक्स येलो पेज परिणाम और पसंद क्यों करता है?
जहर

मुझे नहीं लगता कि Google अधिकांश पीले पृष्ठों वाली साइटों को अनुक्रमित करना चाहता है, कम से कम उन्हें खोज परिणामों में प्रमुख नहीं बनाता है। superpages.com का मुख्यालय मुझसे नीचे सड़क पर है। कुछ साल पहले Google ने इसे पूरे मंडल में बहुत स्थान दिया। मैं अचानक उनके डेवलपर्स का साक्षात्कार कर रहा था, जिन्हें हम नए काम की तलाश में थे।
स्टीफन Ostermiller

2
@StephenOstermiller क्या आपके पास ऐसा संदर्भ है जहां Google कहता है कि वे उन साइटों को दंडित करते हैं जो खोज पृष्ठों को क्रॉल करने की अनुमति देती हैं? मुझे इस बारे में कुछ नहीं मिला।
एलेक्स

1
वियाग्रा के बारे में, यह मेरे लिए अच्छा नहीं है। मेरी साइट मुकदमेबाजी को ट्रैक करती है और वियाग्रा के साथ जुड़े पेटेंटों पर वास्तविक कानूनी तकरार हुई है। वे इन झूठी सकारात्मकता को कैसे रोकते हैं?
स्पीडप्लेन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.