साइटमैप विरोधाभास


249

हम स्टैक ओवरफ्लो पर एक साइटमैप का उपयोग करते हैं , लेकिन मुझे इसके बारे में मिश्रित भावनाएं हैं।

वेब क्रॉलर आमतौर पर साइट के भीतर और अन्य साइटों के लिंक से पेज खोजते हैं। साइटमैप इस डेटा को उन क्रॉलरों को अनुमति देने के लिए पूरक करता है जो साइटमैप के सभी URL को लेने के लिए साइटमैप का समर्थन करते हैं और संबंधित मेटाडेटा का उपयोग करके उन URL के बारे में सीखते हैं। साइटमैप प्रोटोकॉल का उपयोग करने की गारंटी नहीं है कि वेब पेज खोज इंजन में शामिल हैं, लेकिन वेब क्रॉलर को आपकी साइट को क्रॉल करने का बेहतर काम करने के लिए संकेत प्रदान करता है।

साइटमैप के साथ हमारे दो वर्षों के अनुभव के आधार पर, साइटमैप के बारे में कुछ मौलिक विरोधाभास है :

  1. साइटमैप उन साइटों के लिए अभिप्रेत है, जिन्हें ठीक से क्रॉल करना कठिन है।
  2. यदि Google लिंक खोजने के लिए आपकी साइट को सफलतापूर्वक क्रॉल नहीं कर सकता है, लेकिन साइटमैप में इसे खोजने में सक्षम है तो यह साइटमैप लिंक को कोई भार नहीं देगा और इसे अनुक्रमणित नहीं करेगा!

साइटमैप विरोधाभास - यदि आपकी साइट ठीक से क्रॉल नहीं की जा रही है (जो भी कारण हो), तो साइटमैप का उपयोग करने से आपको मदद नहीं मिलेगी!

Google बिना किसी साइटमैप गारंटी के अपने रास्ते से बाहर चला जाता है :

"हम जब के बारे में या यदि आपका URL क्रॉल या हमारे सूचकांक में जोड़ दिया जाएगा कोई पूर्वानुमान या गारंटी नहीं दे सकता" प्रशस्ति पत्र

"हम गारंटी नहीं देते हैं कि हम आपके सभी URL को क्रॉल या अनुक्रमणित करेंगे। उदाहरण के लिए, हम आपके साइटमैप में निहित छवि URL को क्रॉल या अनुक्रमणित नहीं करेंगे।" उद्धरण

"साइटमैप सबमिट करने की गारंटी नहीं है कि आपकी साइट के सभी पृष्ठ क्रॉल हो जाएंगे या हमारे खोज परिणामों में शामिल होंगे" उद्धरण

यह देखते हुए कि साइटमैप में मिले लिंक केवल सिफारिशें हैं , जबकि आपकी अपनी वेबसाइट पर पाए गए लिंक को उचित माना जाता है ... यह केवल तार्किक बात लगती है कि साइटमैप होने से बचें और यह सुनिश्चित करें कि Google और कोई अन्य खोज इंजन ठीक से काम कर सकें सादे पुराने मानक वेब पेजों का उपयोग करके अपनी साइट को मकड़ी करें जो हर कोई देखता है।

तब तक क्या किया है कि , और अच्छा spidered हो रहे हैं और अच्छी तरह से गूगल है कि आपके देख सकते हैं खुद की साइट इन पृष्ठों के लिंक, और लिंक को क्रॉल करने के लिए तैयार हो सकता है - उह, क्यों हम एक साइटमैप फिर क्या ज़रूरत है? साइटमैप सक्रिय रूप से हानिकारक हो सकता है, क्योंकि यह आपको यह सुनिश्चित करने से विचलित करता है कि खोज इंजन मकड़ियों आपकी पूरी साइट को सफलतापूर्वक क्रॉल करने में सक्षम हैं। "ओह, इससे कोई फर्क नहीं पड़ता कि यदि क्रॉलर इसे देख सकता है, तो हम उन लिंक को थप्पड़ में ही थप्पड़ मार देंगे!" हमारे अनुभव में वास्तविकता बिल्कुल विपरीत है।

ऐसा लगता है कि साइटमैप के लिए एक छोटे से विडंबना से अधिक विडंबना यह है कि उन साइटों के लिए इरादा था जिनके पास लिंक या जटिल UI का बहुत गहरा संग्रह है जो मकड़ी के लिए कठिन हो सकता है। हमारे अनुभव में, साइटमैप मदद नहीं करता है, क्योंकि यदि Google को आपकी साइट पर लिंक उचित नहीं मिल रहा है, तो वह इसे वैसे भी साइटमैप से अनुक्रमित नहीं करेगा। हमने स्टैक ओवरफ्लो प्रश्नों के साथ इस सिद्ध समय और समय को फिर से देखा है।

क्या मै गलत हु? क्या साइटमैप समझ में आता है, और हम किसी तरह सिर्फ गलत तरीके से उनका उपयोग कर रहे हैं?


मैंने सोचा था कि साइटमैप एक सरल उम्र के लिए अधिक सरल उपकरण थे ... मुझे लगा कि आजकल साइटमैप प्रदान करने का एकमात्र कारण साइट को नेविगेट करने में मानवीय सहायता के लिए था, यद्यपि तकनीकी रूप से इच्छुक मानव। मुझे "आपकी साइट ठीक से क्रॉल न होने (जो भी कारण से हो रही है) के साथ कोई समस्या नहीं दिख रही है, साइटमैप का उपयोग करने से आपको मदद नहीं मिलेगी!" लेकिन यह सिर्फ मैं हो सकता है।
jcolebrand

3
जबकि मुझे पता है कि Google आपके ट्रैफ़िक को बढ़ा देता है। मुझे लगता है कि यह समझना महत्वपूर्ण है कि अन्य स्पाइडर साइटमैप का उपयोग कैसे करते हैं।
माइकजे

22
@mikej google हमारे ट्रैफ़िक का "बल्क" नहीं है, यह सभी खोज ट्रैफ़िक का 99.6% और कुल ट्रैफ़िक का 87% है
Jeff Atwood

2
जेफ, हमेशा अपनी पोस्ट से प्यार करते हैं ... मैं केवल उन पृष्ठों के लिए एक्सएमएल साइटमैप का उपयोग करता हूं जो Google अन्यथा नहीं मिल सकता है। लेकिन वास्तव में मैं उनके और Google वेबमास्टर टूल से असंतुष्ट रहा हूं। मुझे ईमानदारी से लगता है कि Google एक साइट पर उपलब्ध सामग्री को अनुक्रमित करने के लिए एक अच्छा काम करता है। साइटमैप के लिए कोई मतलब नहीं है। अब उपयोगकर्ता नेविगेशन के लिए साइटमैप एक स्मार्ट विचार है। मुझे Web.2.0 फुटर साइट मैप्स पसंद हैं और उन्हें लगभग किसी भी डिज़ाइन में शामिल करने की कोशिश की जाती है ...
फ्रैंक

1
@ जेफ एटवुड: जॉन म्यूलर ने कहा "हम पिक एंड इंडेक्स अन्यथा अनलिंक किए गए URL" करते हैं - क्या यह विरोधाभास को हल करता है?
रोब ओलमोस

जवाबों:


192

अस्वीकरण: मैं Google पर साइटमैप टीम के साथ मिलकर काम करता हूं, इसलिए मैं कुछ हद तक पक्षपाती हूं :-)।

"गैर-वेब-इंडेक्स" सामग्री (चित्र, वीडियो, समाचार, आदि) के लिए बड़े पैमाने पर साइटमैप का उपयोग करने के अलावा, हम इन मुख्य उद्देश्यों के लिए साइटमैप फ़ाइलों में शामिल URL से जानकारी का उपयोग करते हैं:

  • नई और अपडेट की गई सामग्री की खोज (मुझे लगता है कि यह स्पष्ट है, और हाँ, हम उठाते हैं और अनुक्रमणित करते हैं अन्यथा अनलिंक किए गए URL वहाँ से भी)
  • विहितकरण के लिए पसंदीदा URL को पहचानना (विहितीकरण को संभालने के अन्य तरीके भी हैं)
  • Google वेबमास्टर टूल में एक उपयोगी अनुक्रमित URL गणना प्रदान करना (साइट से सन्निकटन: -संग्रह मीट्रिक के रूप में उपयोग करने योग्य नहीं हैं)
  • उपयोगी क्रॉल त्रुटियों के लिए एक आधार प्रदान करना (यदि साइटमैप फ़ाइल में शामिल URL में क्रॉल त्रुटि है, जो आमतौर पर एक बड़ा मुद्दा है और वेबमास्टर टूल में अलग से दिखाया गया है)

वेबमास्टर-साइड पर, मैंने साइटमैप फ़ाइलों को भी अत्यंत उपयोगी पाया है:

  • यदि आप साइटमैप फ़ाइल बनाने के लिए क्रॉलर का उपयोग करते हैं, तो आप आसानी से जांच सकते हैं कि आपकी साइट क्रॉल करने योग्य है और प्रथम-हाथ को देखें कि किस प्रकार के URL मिलते हैं। क्या क्रॉलर आपके पसंदीदा URL ढूंढ रहा है, या कुछ गलत तरीके से कॉन्फ़िगर किया गया है? क्या क्रॉलर अनंत स्थानों (जैसे अंतहीन कैलेंडर स्क्रिप्ट) में फंस रहा है? क्या आपका सर्वर लोड को संभालने में सक्षम है?
  • आपकी साइट में वास्तव में कितने पृष्ठ हैं? यदि आपकी साइटमैप फ़ाइल "साफ" (कोई डुप्लिकेट आदि) नहीं है, तो जांचना आसान है।
  • क्या आपकी साइट डुप्लिकेट सामग्री में चलने के बिना वास्तव में साफ-सुथरी रेंगने योग्य है? अपनी साइटमैप फ़ाइल के साथ Googlebot द्वारा पीछे छोड़ दिए गए सर्वर लॉग की तुलना करें - यदि Googlebot उन URL को क्रॉल कर रहा है जो आपकी साइटमैप फ़ाइल में नहीं हैं, तो आप अपनी आंतरिक लिंकिंग की दोबारा जाँच कर सकते हैं।
  • क्या आपका सर्वर आपके पसंदीदा URL के साथ समस्याओं में चल रहा है? साइटमैप URL के साथ अपने सर्वर त्रुटि लॉग को क्रॉस-चेक करना काफी उपयोगी हो सकता है।
  • आपके कितने पृष्ठ वास्तव में अनुक्रमित हैं? जैसा कि ऊपर उल्लेख किया गया है, यह गिनती वेबमास्टर टूल्स में दिखाई देती है।

दी गई साइट को क्रॉल और अनुक्रमित करने के बाद, साइटमैप का उपयोग करके वास्तव में छोटे, स्थिर, आसानी से क्रॉल करने योग्य साइटों के लिए, Google के दृष्टिकोण से अनावश्यक हो सकता है। किसी और चीज के लिए, मैं वास्तव में उन्हें इस्तेमाल करने की सलाह दूंगा।

FWIW कुछ गलत धारणाएं हैं जिन्हें मैं भी कवर करना चाहता हूं:

  • साइटमैप फ़ाइल क्रॉलबिलिटी समस्याओं को "ठीक" करने के लिए नहीं है। यदि आपकी साइट क्रॉल नहीं की जा सकती है, तो पहले उसे ठीक करें ।
  • हम रैंकिंग के लिए साइटमैप फ़ाइलों का उपयोग नहीं करते हैं।
  • साइटमैप फ़ाइल का उपयोग करने से आपकी साइट के हमारे सामान्य क्रॉलिंग में कमी नहीं होगी। यह अतिरिक्त जानकारी है, रेंगने के लिए प्रतिस्थापन नहीं है। इसी तरह, साइटमैप फ़ाइल में URL नहीं होने का मतलब यह नहीं है कि इसे अनुक्रमित नहीं किया जाएगा।
  • मेटा-डेटा पर उपद्रव न करें। यदि आप उपयोगी मान प्रदान नहीं कर सकते हैं (जैसे प्राथमिकता के लिए), तो उन्हें छोड़ दें और उस बारे में चिंता न करें।

आप "स्व-रैंकिंग" के लिए साइटमैप का उपयोग करते हैं, है ना? मेरा मतलब है कि एक साइट पर सामग्री की रैंकिंग करना। नहीं तो priorityमैदान क्यों ?
असंतुष्टगीत ने

7
"प्राथमिकता" तत्व हमारे लिए एक काफी छोटा संकेत है, जिसका उपयोग हम कर सकते हैं यदि हम आपकी साइट पर रेंगने के साथ बहुत सीमित हैं (हम इसका उपयोग रैंकिंग उद्देश्यों के लिए नहीं करते हैं)। अधिकांश साइटों के लिए, यह एक मुद्दा नहीं होने वाला है, इसलिए यह ठीक है यदि आप आसानी से उपयोगी मान प्रदान कर सकते हैं, लेकिन ऐसा नहीं है कि यदि आप ऐसा नहीं कर सकते तो नींद खो दें। यदि आप इसके और अन्य मेटा-डेटा तत्वों के लिए उपयोगी मान प्रदान नहीं कर सकते हैं, तो बस तत्वों को पूरी तरह से छोड़ दें ("डिफ़ॉल्ट" मानों का उपयोग न करें)।
जॉन म्यूएलर

इस बहुत जानकारीपूर्ण उत्तर के लिए धन्यवाद। मैं अपना साइटमैप अपडेट करना बंद करने जा रहा हूं और अभी से आरएसएस फ़ीड को साइटमैप के रूप में उपयोग कर रहा हूं।
स्टीफन मुलर

1
क्या सूचना का 100 स्तर गहरा होना "क्रॉलबिलिटी का मुद्दा" है? उदाहरण के लिए, यदि मेरे पास एक वेबस्टोर है, और एक श्रेणी में उत्पादों की लंबी सूची है (जैसे, 3000 उत्पाद)। सूची पृष्ठबद्ध है और इसमें 200 पृष्ठ हैं। स्वाभाविक रूप से, मैं सभी लिंक नहीं दिखाऊंगा। अधिक पसंद है 1 2 3 ... 22 **23** 24 ... 198 199 200। इसलिए, पृष्ठ 100 पर एक उत्पाद खोजने के लिए, आपको लगभग 100 लिंक से गुजरना होगा। या सर्च बार का उपयोग करें। क्या googlebot क्रॉल करेगा, या यह कुछ 20 या इतने स्तरों के बाद छोड़ देगा? क्या एक साइटमैप यहां उचित समाधान होगा?
विल्क्स-

1
@Martijn - ठीक है, लेकिन क्या होगा अगर आपको यह सब देखने के लिए 200 बार "नेक्स्ट" पर क्लिक करना पड़े? क्या मकड़ी लगन से दूर भाग जाएगी, या यह लगभग 30 के बाद छोड़ देगी और कहेगी "इस बकवास को बकवास करो, मैं लिंक श्रृंखला का लंबे समय तक पालन नहीं कर रहा हूं"?
विलेक्स

40

यदि आप जानते हैं कि आपके पास अच्छी साइट वास्तुकला है और Google को आपके पृष्ठ स्वाभाविक रूप से मिलेंगे, तो मुझे केवल इतना ही लाभ होगा कि मैं तेजी से अनुक्रमण कर रहा हूं, यदि आपकी साइट आपके लिए पर्याप्त रूप से अनुक्रमित हो रही है तो कोई आवश्यकता नहीं है।

यहां 2009 से लेख है जहां एक सज्जनों ने परीक्षण किया कि Google ने कितनी तेजी से साइटमैप के साथ और बिना अपनी साइट को क्रॉल किया। http://www.seomoz.org/blog/do-sitemaps-effect-crawlers

मेरे अंगूठे का नियम यह है कि यदि आप कुछ नया शुरू कर रहे हैं, तो आप यह देखना चाहते हैं कि Google यह सुनिश्चित करने के लिए आपकी साइट को कैसे क्रॉल करता है कि कुछ भी ऐसा नहीं है जिसे ठीक करने की आवश्यकता है, इसलिए, यदि आप परिवर्तन कर रहे हैं और चाहते हैं तो सबमिट न करें Google उन्हें और तेज़ी से देखने के लिए सबमिट करता है या यदि आपके पास अन्य समय की संवेदनशील जानकारी है जैसे कि ब्रेकिंग न्यूज़ है तो सबमिट करें क्योंकि आप यह सुनिश्चित करना चाहते हैं कि आप जो कुछ भी कर सकते हैं वह यह है कि आप पहले Google को देखें, अन्यथा यह प्राथमिकता का विषय है।


क्या RSS फ़ीड समान चीज़ को पूरा नहीं करेगा?
सदाचारिणी मीडिया

अनुक्रमण को बेहतर बनाने के लिए निश्चित रूप से बहुत सी चीजें हैं जो आप आरएसएस फ़ीड के साथ कर सकते हैं, हालांकि, मैंने जो लेख ऊपर लिंक किया है उसमें डेटा बताता है कि एक साइटमैप सिर्फ आरएसएस फ़ीड के लिए अधिक प्रभावी है।
जोशक

15

मुझे संदेह है: Google के लिए, सबसे तेज़ तरीके से अपडेट का ट्रैक रखने के लिए साइटमैप आवश्यक हैं। उदाहरण के लिए, मान लें कि आपने अपनी वेब साइट के कुछ गहरे स्थान पर एक नई सामग्री जोड़ी है, जो आपके होम पेज से पहुंचने के लिए 10-20 से अधिक क्लिक लेती है। Google के लिए इस नए पृष्ठ तक पहुँचने के लिए थोड़े समय में कम संभावना होगी - इसलिए इसके बजाय, जब तक इस पृष्ठ का एक मार्ग पूरी तरह से निर्धारित नहीं हो जाता, तब तक इसके अस्तित्व की घोषणा की जाती है। आखिरकार, पेजरैंक की गणना तुरंत नहीं की जाती है, उपयोगकर्ता के व्यवहार का मूल्यांकन करने के लिए समय की आवश्यकता होती है और इस तरह - इसलिए, तब तक, इंजन को एक पृष्ठ को ताज़ा सामग्री के साथ क्रॉल और इंडेक्स क्यों नहीं करना चाहिए?


4
स्टैकओवरफ़्लो जैसी साइटें इतनी बार क्रॉल हो जाती हैं कि मैं एक साइटमैप का उपयोग करके तेजी से दांव लगाने को तैयार हूं ।
जॉन कोंडे

3
@ जॉन अभी भी, यह एकमात्र तर्कसंगत स्पष्टीकरण है जो मैं सोच सकता हूं कि एक साइटमैप वास्तव में आपके लिए क्या कर सकता है। "यह चोट नहीं पहुँचा सकता है" एक सामान्य परहेज है, लेकिन एक साइटमैप का अस्तित्व केवल हानिकारक (अतिरिक्त जटिलता, आदि) है, इसलिए यदि यह मदद नहीं कर रहा है, तो यह अभी भी एक नकारात्मक है और यह जाना होगा।
जेफ एटवुड

@ जेफ़ मैं असहमत नहीं था। मैं सिर्फ इतना कह रहा था कि एसओ उस सांचे में फिट नहीं था।
जॉन कोंडे

2
जोश द्वारा प्रदान की गई लिंक के माध्यम से इस तरह की पुष्टि की जाती है: seomoz.org/blog/do-sitemaps-effect-crawlers
जेफ एटवुड

@ जेफ एटवुड "@ जॉन अभी भी, ..." यह वह बिंदु है जिसे मैं बनाने का प्रयास कर रहा था। यह पहली बार में फायदेमंद था, लेकिन अब आपको इसकी आवश्यकता नहीं है। तो आप इसे करने की कोशिश में क्यों बने रहते हैं?
jcolebrand

9

यदि आप उन्हें सही तरीके से उपयोग करते हैं तो साइटमैप अविश्वसनीय रूप से मूल्यवान हैं।

सबसे पहले, तथ्य यह है कि Google कहता है कि वे संकेत हैं केवल वहाँ है) यह सुनिश्चित करने के लिए कि वेबमास्टर्स झूठी धारणा के तहत नहीं हैं जो साइटमैप = इंडेक्सेशन और बी) Google को कुछ साइटमैप को अनदेखा करने की क्षमता देते हैं यदि वे उन्हें अस्वीकार्य होने के लिए निष्क्रिय करते हैं ( उर्फ लास्टम, सभी URL के लिए वर्तमान तिथि है जो प्रत्येक दिन वे एक्सेस करते हैं।)

हालाँकि, Google आमतौर पर साइटमैप को पसंद करता है और उसका उपभोग करता है (वास्तव में वे कभी-कभी अपना स्वयं का पता लगाते हैं और उन्हें Google वेबमास्टर टूल में जोड़ते हैं)। क्यों? यह दक्षता बढ़ाता है जिसके साथ वे क्रॉल कर सकते हैं।

बीज साइट पर शुरू करने और वेब को क्रॉल करने के बजाय, वे अपने क्रॉल बजट की एक उपयुक्त राशि को साइट पर जमा किए गए साइटमैप के आधार पर आवंटित कर सकते हैं। वे संबंधित त्रुटि डेटा (500, 404 आदि) के साथ आपकी साइट का एक बड़ा इतिहास भी बना सकते हैं।

Google से:

"Googlebot एक पृष्ठ से दूसरे पृष्ठ के लिंक का अनुसरण करके वेब को क्रॉल करता है, इसलिए यदि आपकी साइट अच्छी तरह से जुड़ी नहीं है, तो हमारे लिए इसे खोजना कठिन हो सकता है।"

वे जो नहीं कहते हैं वह यह है कि वेब को क्रॉल करने में समय लगता है और वे एक धोखा पत्र (उर्फ साइटमैप) लेना पसंद करते हैं।

निश्चित रूप से, आपकी साइट क्रॉल के दृष्टिकोण से ठीक हो सकती है, लेकिन यदि आप नई सामग्री को प्रस्तुत करना चाहते हैं, तो उस सामग्री को साइटमैप में उच्च प्राथमिकता के साथ क्रॉल करना और अनुक्रमित करना एक तेज़ तरीका है।

और यह Google के लिए भी काम करता है, क्योंकि वे नई सामग्री - तेज़ी से ढूंढना, क्रॉल करना और अनुक्रमित करना चाहते हैं। अब, भले ही आपको नहीं लगता कि Google जंगल के दृष्टिकोण पर पीट मार्ग बनाम माचे को पसंद करता है, फिर भी एक और कारण है कि साइटमैप मूल्यवान हैं - ट्रैकिंग।

विशेष रूप से, साइटमैप इंडेक्स (http://sitemaps.org/protocol.php#index) का उपयोग करके आप साइट को साइटमैप द्वारा साइटमैप में तोड़ सकते हैं। ऐसा करके आप तब अनुभाग द्वारा अपनी साइट अनुभाग की अनुक्रमण दर देख सकते हैं।

एक सेक्शन या कंटेंट टाइप में 87% इंडेक्सेशन रेट हो सकता है, जबकि दूसरे में 46% इंडेक्सेशन रेट हो सकता है। फिर यह पता लगाने के लिए कि आपका काम क्यों है।

साइटमैप से पूर्ण उपयोग प्राप्त करने के लिए आप अपनी साइट (वेबलॉग के माध्यम से) पर Googlebot (और बिंगबॉट) क्रॉल को ट्रैक करना चाहेंगे, उन लोगों को अपने साइटमैप से मिलाएं और फिर ट्रैफ़िक के माध्यम से इन सबका अनुसरण करें।

साइटमैप पर सोने के लिए मत जाओ - उनमें निवेश करें।


2
मैं असहमत हूं, साइटमैप का एक बार उद्देश्य था और अब वे मेरी ईमानदार राय में अप्रचलित हैं। यदि आपकी साइट क्रॉल-सक्षम है, तो यह उन लिंक को ढूंढ लेगा, जो RSS का उपयोग कर रहे हैं, सोशल मीडिया Google को खोजने और उसे तेजी से अनुक्रमित करने के लिए बढ़िया तरीके हैं।
साइमन हैटर

8

Google के शब्दों में: "अधिकांश मामलों में, साइटमैप प्रस्तुत करने से वेबमास्टर्स को लाभ होगा, और किसी भी मामले में आपको इसके लिए जिम्मेदार नहीं ठहराया जाएगा।"

लेकिन मैं मानता हूं कि अगर आप चाहते हैं कि आपकी वेबसाइट के पेज सर्च इंजन में दिखें तो सबसे अच्छी बात यह है कि वे साइट से उचित तरीके से क्रॉल कर सकते हैं।


5
अभी भी एक मानसिक लागत है, क्योंकि कथित लिंक की "सुरक्षा" में आपकी वेबसाइट की क्रॉल स्थिति की परवाह किए बिना अनुक्रमित होने की गारंटी है .. जो हमारे अनुभव में सच नहीं है।
जेफ एटवुड

7

मेरा मानना ​​है कि खोज इंजन पृष्ठों को खोजने के लिए साइटमैप का इतना उपयोग नहीं करते हैं, लेकिन यह अनुकूलित करने के लिए कि वे अक्सर अपडेट के लिए उनकी जांच कैसे करते हैं। वे <changefreq>और देखो <lastmod>। Google संभवत: पूरी वेबसाइट पर बहुत बार घूमता है (अपने लॉग की जाँच करें!), लेकिन सभी खोज इंजनों के पास ऐसा करने के लिए संसाधन नहीं हैं (क्या किसी ने ब्लेकको की कोशिश की है ?)। किसी भी मामले में चूंकि उनका उपयोग करने के लिए कोई जुर्माना नहीं है और वे स्वचालित रूप से बनाए जा सकते हैं और आसानी से मैं इसे करता रहूंगा।


4
मेरा मानना ​​है कि <priority>क्षेत्र काफी महत्वपूर्ण है, उन्हें यह बताने के लिए कि कौन से पृष्ठ सबसे महत्वपूर्ण हैं। स्टैक ओवरफ्लो पर उदाहरण के लिए, आपके पास सैकड़ों टैग और उपयोगकर्ता पृष्ठ हैं, जो ठीक हैं, लेकिन कहीं भी प्रश्न के रूप में महत्वपूर्ण नहीं है। यदि साइटमैप प्रश्न प्राथमिकता 1 और बाकी सब कुछ कम करता है, तो प्रश्न अन्य पृष्ठों पर अनुक्रमित होने की अधिक संभावना है।
असंतुष्टगीतगोत्र

6

यदि आप इस विषय पर ध्यान देते हैं, तो कृपया इस महान Google पेपर को पढ़ें http://googlewebmastercentral.blogspot.com/2009/04/research-study-of-sitemaps.html (अप्रैल 2009) - पूरा पेपर पढ़ें, न केवल ब्लॉगपोस्ट ।

कागज से

  • ठीक है, मूल रूप से गूगल एक ही सवाल से जूझ रहा है।
  • वे यह नहीं बताते हैं कि वे साइटमैप के भीतर मूल्य का निर्धारण कैसे करते हैं, लेकिन वे प्रारंभ पृष्ठ से साइटमैप के लिए वर्चुअल लिंक की अवधारणा का उल्लेख करते हैं।
  • अन्य दिलचस्प सामान के बहुत सारे

लेकिन हाँ, साइटमैप का उपयोग ज्यादातर खोज के लिए किया जाता है (Google द्वारा आपके सामान की खोज की प्रक्रिया), मूल्य निर्धारण के लिए नहीं। यदि आप खोज के साथ संघर्ष करते हैं, तो साइटमैप का उपयोग करें। खोज रेंगने के लिए एक पूर्व शर्त है, लेकिन मूल्य निर्धारण को नहीं छूता है।

मेरे अनुभव से

  • वहाँ साइटों की एक श * tload है कि बस HTML और XML साइटमैप का उपयोग उनके पृष्ठों के परस्पर क्रिया के लिए कर रहे हैं
  • और इनमें से, XML साइटमैप बहुत अधिक बेहतर क्रॉल किया गया है तो HTML साइटमैप। (मैं वास्तव में कुछ बड़े लोगों पर एक अच्छा लग रहा था)
  • वहाँ भी बहुत सफल साइटों है कि सिर्फ XML साइटमैप का उपयोग कर रहे हैं।

जब मैं एक साइट के लिए एक एसईओ रणनीति को लागू करता हूं जिसमें आधे मिलियन से अधिक पृष्ठ होते हैं तो मैं जाता हूं

  • लैंडिंग पृष्ठ
  • sitemap.xml
  • पृष्ठ प्रारंभ करें

बाकी सब कुछ सिर्फ "बैलास्ट" है - हाँ, अन्य सामान में सकारात्मक एसईओ मूल्य हो सकता है, लेकिन निश्चित रूप से एक नकारात्मक मूल्य है: यह साइट को प्रबंधित करने के लिए कठिन बनाता है। (पीएस: मूल्य निर्धारण के लिए मैं एक संवेदनशील तरीके (बड़े प्रभाव) में लैंडिंग को इंटरलिंक करता हूं, लेकिन पहले से ही दूसरा कदम है।

अपने प्रश्न के बारे में: कृपया डिस्कवरी, क्रॉलिंग, इंडेक्सिंग और रैंकिंग को भ्रमित न करें। आप उन सभी को अलग से ट्रैक कर सकते हैं, और आप उन सभी को अलग से ऑप्टिमाइज़ कर सकते हैं। और आप एक महान (यानी: वास्तविक समय) साइटमैप के साथ प्रमुख खोज और क्रॉलिंग को बढ़ा सकते हैं।


5

साइटमैप आपके गधे को बचा सकता है।

मेरी एक साइट पर, मेरे पास बड़ी संख्या में लिंक हैं जो मैं खोज इंजन को स्पाइडरिंग से रोकता हूं। लंबी कहानी छोटी, Google मेरे फोरम में जेएस की गलत व्याख्या कर रहा था और बहुत सारे 500 और 403 रिस्पॉन्स कोड्स को ट्रिगर कर रहा था, जो मुझे लगता था कि साइट की स्थिति को प्रभावित कर रहे थे। मैंने robots.txt के माध्यम से समस्याग्रस्त URL को छोड़कर इसके चारों ओर काम किया।

एक दिन, मैंने गड़बड़ की और कुछ ऐसा किया जिससे Google को उस साइट पर कुछ पृष्ठों को क्रॉल करने से रोका गया जिसे मैं वास्तव में अनुक्रमित करना चाहता था। मंच के बहिष्करण के कारण, "robots.txt द्वारा प्रतिबंधित" के लिए वेबमास्टर टूल त्रुटि अनुभाग में 4000 से अधिक पृष्ठ थे, इसलिए मैंने इस त्रुटि को तब तक नहीं उठाया होगा जब तक कि बहुत देर हो चुकी थी।

सौभाग्य से, क्योंकि मेरी साइट के सभी "महत्वपूर्ण" पृष्ठ साइटमैप में हैं, इसलिए मैं विशेष त्रुटि श्रेणी में इस समस्या का शीघ्र ही पता लगाने में सक्षम था, जो वेबमास्टर टूल्स के साइटमैप में पृष्ठों के साथ समस्याओं के लिए है।

एक तरफ के रूप में, मुझे @AJ Kohn द्वारा उल्लिखित अपनी साइटों के विभिन्न वर्गों की अनुक्रमण गुणवत्ता निर्धारित करने के लिए साइटमैप इंडेक्स का उपयोग करने से भी बहुत लाभ मिलता है ।


4

मैंने इसे स्वयं नहीं चलाया है, लेकिन मेरी अधिकांश परियोजनाएँ ऐसे अनुप्रयोग या साइट हैं जिन्हें अन्यथा उपयोगकर्ता खातों की आवश्यकता होती है इसलिए खोज इंजन द्वारा अनुक्रमण एक फ़ोकस नहीं है।

उस ने कहा, मैंने पहले सुना है कि एसईओ ने मूल रूप से साइटमैप बेकार कर दिया है। यदि आप प्रोटोकॉल को देखते हैं, तो यह बताने के लिए कि "पृष्ठ कितनी बार बदलता है और प्रत्येक पृष्ठ की सापेक्ष प्राथमिकता क्या है, यह" सम्मान प्रणाली "की तरह है। यह इस कारण से है कि dime-a-दर्जन एसईओ फर्म खेतों का दुरुपयोग करती हैं - हर पृष्ठ सर्वोच्च प्राथमिकता है! हर पेज प्रति घंटा बदलता है! - और प्रभावी रूप से बेकार साइटमैप का प्रतिपादन किया।

2008 का यह लेख मूल रूप से यही कहता है और लगता है कि आप एक ही निष्कर्ष पर आते हैं: साइटमैप बहुत अच्छी तरह से बेकार है और आप सामग्री को अनुक्रमित करने और साइटमैप को खोदने के लिए अनुकूलन करना बेहतर होगा।


3

इसे रेंगने दो।

मैं निम्नलिखित कार्य करता हूं:

  1. साइट को पुराने तरीके से क्रॉल करने योग्य बनाएं।
  2. सुनिश्चित करें कि मेरे पास इस पर साइटमैप संकेत के साथ एक robots.txt है।
  3. XML साइटमैप बनाएं, लेकिन सबमिट न करें। क्रॉलर को उसकी खोज और अनुक्रमण प्रक्रिया के भाग के रूप में आवश्यकतानुसार खोज और उपयोग करने दें।

मैं एक एक्सएमएल फाइल तैयार करता हूं, जो कई चीजों के लिए आधार का काम करता है:

  • HTML साइटमैप बनाना
  • 404 (पाया नहीं) पृष्ठ पर मदद करें
  • ब्रेडक्रंब बनाने, या एक पृष्ठ के लिए मेरे मुखौटा पैटर्न पर कुछ मेटाडेटा प्राप्त करने जैसे अन्य छोटे कार्यों में मदद करें।

इसलिए मेरे पास यह सब है, तो क्यों न एक xml साइटमैप परोसें और क्रॉलर को वह करने दें, जो वह करना चाहेगा?


3

जेफ, मुझे स्टैकओवरफ़्लो के बारे में कोई पता नहीं है क्योंकि मुझे अपने जीवन में कभी भी इतनी बड़ी और इतनी बार अपडेट की गई वेबसाइट का वेबमास्टर बनने का अवसर नहीं मिला है।

छोटी वेबसाइटों के लिए जो बार-बार नहीं बदलती हैं, मुझे लगता है कि साइटमैप दो कारणों से काफी उपयोगी है (यह कहते हुए कि साइटमैप सबसे महत्वपूर्ण चीज है, लेकिन बहुत उपयोगी हाँ):

  1. साइट को जल्दी से क्रॉल किया जाता है ( ऊपर दिए गए जोशेक उत्तर द्वारा समझाया गया कारण ) और अपने छोटे से अनुभव में मैंने इसे कई बार छोटी साइटों (30/50 पृष्ठों तक) के साथ देखा।

  2. कुछ हफ्ते मैं एक साइटमैप सबमिट कर के बाद, मैं "गूगल वेबमास्टर उपकरण - साइटमैप" में देखने के लिए और मैं देख सकता हूँ वेब अनुक्रमणिका में URL की संख्या वी.एस. साइटमैप में प्रस्तुत URL की संख्या । अगर मैं देखूं कि वे समान हैं, तो अच्छा है। अन्यथा मैं अपनी वेबसाइटों में तुरंत जांच कर सकता हूं कि कौन से पृष्ठ अनुक्रमित नहीं हो रहे हैं और क्यों।


3

यह (पहली?) रेंडमफ़िश द्वारा 2007 के अच्छे पुराने वर्ष में वापस SEOmoz पर लिखा गया था । उनके आसपास पहली बार एक ही प्रकार के निष्कर्ष आए, लेकिन फिर समय ने बात की ... और पारित किया।

(जनवरी 2009) के बाद से उन्होंने लेख में एक पोस्टस्क्रिप्ट लिखी है जिसमें कहा गया है कि किसी भी संभावित डाउनसाइड को बस साइटमैप बनाने, सत्यापित करने और सबमिट करने के सकारात्मक परिणामों से आगे निकल जाना है।

5 जनवरी, 2009 को अपडेट करें - मैंने वास्तव में इस सलाह के बारे में अपना विचार बदल दिया है। हां, साइटमैप अभी भी वास्तु संबंधी मुद्दों का अवलोकन कर सकता है, लेकिन पिछले 1.5 वर्षों में मैंने जो अनुभव प्राप्त किया है, उसे देखते हुए, मैं अब अपने सभी ग्राहकों (और लगभग हर कोई जो पूछता है) को सलाह देता है कि साइटमैप प्रस्तुत किया जाए। क्रॉलिंग, इंडेक्सेशन और ट्रैफ़िक के संदर्भ में सकारात्मकता केवल डाउनसाइड को आगे बढ़ाती है।


2

मेरा मानना ​​है कि साइटमैप इन दिनों केवल दो उद्देश्यों की सेवा करता है:

  • वे आपको सर्वर लोड को कम करने के लिए स्पाइडरिंग की आवृत्ति को कम करने की अनुमति देते हैं। यह वास्तव में ज्यादातर साइटों के लिए एक मुद्दा नहीं होना चाहिए।
  • वे खोज इंजन जो आपके बारे में पहले से जानते हैं, उन्हें फिर से लागू करने में मदद कर सकते हैं। पृष्ठ के नामों को सूचीबद्ध करना, और स्पष्ट रूप से प्रत्येक पृष्ठ पर उचित भार जोड़ना, खोज इंजन को आपकी साइट की वास्तुकला को रैंकिंग के लिए अपने स्वयं के मैट्रिक्स को मान्य करने में मदद करता है।

1

मत का उपयोग न करें

साइटमैप मुख्य रूप से उन साइटों के लिए हैं जो टाइमस्टैम्प इंडेक्स और नोड्स नहीं करते हैं .... एसई दोनों इसके लिए मुख्य सामग्री है, इसलिए साइटमैप होने से क्रॉलर धीमा हो जाएगा ... हाँ, यह सही है, यह धीमा हो जाएगा, क्योंकि साइटमैप कोर इंडेक्स में मेटाडेटा का अभाव है। फ़्लिप्सीड पर, मेरे पास कोई वास्तविक विचार नहीं है कि Google कैसे बॉट बनाता है, बस मुझे पता है कि अगर मैं बॉट एसई जा रहा था, तो मैं साइटमैप का उपयोग नहीं करूंगा। इसके अलावा, कुछ साइट पर यह भी ध्यान नहीं दिया जाता है कि उनके साइटमैप सभी% हैं! @ $ - और यदि आपने एक साइटमैप पर एक प्रोफ़ाइल बनाई है जो अचानक काम नहीं कर रही है, और आपको एक नया प्रोफ़ाइल बनाने का मौका मिल गया है असली साइट।

तो, आप सही कह रहे हैं - SITEMAPS का उपयोग न करें!

सुझाव: एक चीज़ जो आपको करनी चाहिए, वह यह है कि टैग के शब्दार्थ को समय के साथ-साथ जितना संभव हो सके रखें, यदि "पूछे गए एक घंटे पहले" में मेटाडेटा एम्बेड है जैसे:

title="2010-11-02 00:07:15Z" class="relativetime"

स्ट्रिंग नाम को कभी न बदलें relativetime, जब तक कि डेटा का अर्थ titleबदल न जाए। कभी नहीँ... :-)


1

मैंने हाल ही में एक साइट का पुनर्गठन किया है जिस पर मैं अभी भी काम कर रहा हूं। क्योंकि उपयोगकर्ताओं की मदद करने के लिए 500,000 पृष्ठों को लिंक करने का कोई अच्छा तरीका नहीं था, इसलिए मैंने XML साइटमैप का उपयोग करने और इसे Google पर सबमिट करने और इसके बजाय साइट खोज का उपयोग करने का निर्णय लिया। Google को पहले मेरी साइट को अनुक्रमित करने में कोई समस्या नहीं थी, हालाँकि, साइटमैप जोड़ने के बाद से, Google मेरी साइट को स्प्रेड करने और पृष्ठों को बहुत तेज़ी से अनुक्रमित करने में बहुत आक्रामक है। Google ने साइटमैप का उपयोग नए पृष्ठ (लगभग 3300 प्रति सप्ताह) खोजने और अपडेट किए गए पृष्ठों को फिर से भेजने के लिए किया है। यह मेरी किताब में एक वास्तविक जीत है। मैं अभी भी अपने पृष्ठों को लिंक करने और लुक-अप के लिए AJAX का उपयोग करने के लिए एक नया तरीका जानना चाहता हूं, लेकिन यह एक और दिन के लिए एक परियोजना है। अब तक सब ठीक है! यह मेरे लिए एक अच्छा समाधान रहा है। सभी और सभी, मैंने प्राप्त किया है और नहीं खोया है। यह दिलचस्प है क्योंकि मैंने हमेशा महसूस किया है कि साइटमैप वास्तव में अधिक उपयोगी हो सकता है लेकिन इसके डिजाइन से सीमित है।


0

मैंने सुना है कि साइटमैप ने आपके पृष्ठों को तेजी से पूरक सूचकांक में डाल दिया है। लेकिन मैंने उम्र में उल्लेखित पूरक सूचकांक को भी नहीं सुना है, इसलिए वे अब इसका उपयोग नहीं कर सकते हैं।

पीएस के मामले में मेरा कथन पर्याप्त स्पष्ट नहीं है, पूरक सूचकांक में होने के नाते एक बुरा काम है ... (इसलिए) एक साइटमैप है (या था) बीएडी।


0

हम साइटमैप का उपयोग करते हैं (खोज इंजन के लिए प्रस्तुत नहीं किया गया है, लेकिन robots.txtमुख्य रूप से यह सुनिश्चित करने के लिए कि मुखपृष्ठ सबसे अधिक है) <priority>। मुझे यकीन नहीं है कि उनके पास बहुत अधिक उपयोग है।


0

मैं असहमत हूं कि Google साइटमैप-केवल लिंक को अनुक्रमित नहीं करेगा। मेरे पास कई साइटें हैं जिनके पृष्ठ केवल साइटमैप के माध्यम से उपलब्ध हैं, और Google उन्हें बिना किसी समस्या के अनुक्रमित करता है। मैं इसके कई उदाहरण दे सकता हूं।


क्या ये पृष्ठ आपकी साइट के बाहर भी लिंक हैं ?
जेफ एटवुड

0

एक अच्छी तरह से निर्मित साइट को साइटमैप की आवश्यकता नहीं होती है, हालांकि यह हमारी कवरेज और रैंकिंग के साथ सहायता कर सकता है और थोड़ा अतिरिक्त मूल्य जोड़ता है जैसे प्राथमिकता, अद्यतन आवृत्ति, आदि। आप एक खोज इंजन को बता सकते हैं हे ... मैंने इस पृष्ठ को अपडेट किया है पूर्ण क्रॉल की आवश्यकता के बिना मेरी साइट के बीच में कहीं। मैंने क्रॉल पैटर्न को कभी नहीं देखा है, लेकिन एक को उम्मीद है कि इससे मदद मिलेगी।

कहा जाता है कि मेरे लिए असली प्लस वेबमास्टर टूल है और यह अंतर्दृष्टि आपको आपकी वेबसाइट दृश्यता और आपके उपयोगकर्ताओं में देता है।

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.