Google मेरे अधिकांश अनुक्रमित पृष्ठों पर संरचित डेटा क्यों नहीं खोज सकता है?


13

मेरे पास लगभग 30,000 पृष्ठों वाली एक वेबसाइट है। Google अनुक्रमणिका ठीक है, लगभग सभी पृष्ठों को अनुक्रमित किया गया है, लेकिन संरचित डेटा में मुझे schema.org के लिए केवल 48 पृष्ठ ही मिले हैं। Schema.org पूरी वेबसाइट के समान है।

मेरा सवाल यह है कि अनुक्रमित पृष्ठों के बीच इतना बड़ा अंतर क्यों है और मार्कअप पृष्ठों के साथ पता लगाया गया है?

विशेष रूप से मैंने अपनी वेबसाइट के लिए सभी उपयुक्त स्कीमाओं को लागू करने के लिए कड़ी मेहनत की और अब Google उनका पता नहीं लगाता है।

अनुक्रमित पृष्ठ - 27,000 से अधिक वेबमास्टर टूल में संरचित डेटा - 48 पृष्ठ

Schema.org - 48 वाले पृष्ठ वेबमास्टर टूल में अनुक्रमित पृष्ठ - 27,000 से अधिक


5
वेबमास्टर टूल्स निष्कर्षों को रिपोर्ट करने के लिए धीमा हो सकता है क्योंकि इसका वास्तविक समय नहीं है, इसके अतिरिक्त यह कई क्रॉल भी ले सकता है। महत्वपूर्ण सवाल यह है कि Google आपके एक महीने में कितने URLs स्कैन करता है, मुझे 27,000 पर बहुत संदेह है, क्योंकि मैं एक बड़ी संख्या देखने की उम्मीद करूंगा। गूगल हमेशा सूचकांक और पृष्ठों की सबसे लोकप्रिय अद्यतन करेगा के रूप में इन प्राप्त क्रॉल अधिक बार, कुछ यूआरएल कि साल के लिए महीने के लिए अद्यतन नहीं किया गया अद्यतन करने के लिए दिन, सप्ताह या महीनों लग सकते हैं ..
साइमन हैटर

5
@Bybe ने जो कहा है उसे अपडेट करने के लिए (टिप्पणी पर एक-अप-वोट)। Google के पास प्रत्येक पृष्ठ के लिए एक TTL शैली मीट्रिक है। यदि पृष्ठ नया है या अक्सर अपडेट नहीं होता है, तो Google अक्सर इसे विज़िट नहीं करेगा। यदि पृष्ठ ताज़ा है और अक्सर बदलता है, तो पृष्ठ के लिए TTL समय के साथ घट जाएगा और Google पृष्ठ पर अधिक बार जाएगा। ताजगी आपके परिदृश्य में एक महत्वपूर्ण मीट्रिक है। यदि आपकी साइट ताजगी में मानक है, तो Google को परिवर्तन की खोज करने में काफी समय लग सकता है। यदि आपकी साइट नई है, तो यह कुछ नमूना सिर अनुरोधों के साथ ताजगी का परीक्षण कर सकती है।
क्लोसेट्नोक

मेरे मामले में यह एक नई वेबसाइट है - इसे अनुक्रमित पृष्ठों के ग्राफिक से देखा जा सकता है - यह अगस्त 2014 से शुरू होता है। बायबे - मैं क्रॉल किए गए पृष्ठों के लिए नहीं कहता, लेकिन अनुक्रमित के लिए। और मैं उम्मीद कर सकता हूं कि आप दोनों ने जिन बिंदुओं पर ध्यान दिया है, लेकिन मैं स्कीमा मार्कअप के साथ अनुक्रमित पृष्ठों और पृष्ठों के बीच अंतर के लिए पूछ रहा हूं। जबकि सामग्री को अक्सर बदला जा सकता है या नहीं, स्कीमा HTML संरचना का एक हिस्सा है। और यह प्रश्न मेरे लिए बहुत महत्वपूर्ण है क्योंकि मैं अपने हर प्रोजेक्ट के लिए स्कीमा.ऑर्ग के साथ कड़ी मेहनत करना शुरू करता हूं क्योंकि यह Google द्वारा अनुशंसित है।
DF37idzhiev

जैसा कि मैंने कहा कि यह कई क्रॉल ले सकता है और इसे वेबमास्टर टूल्स में प्रदर्शित होने में अधिक समय लग सकता है। यह उन स्कीमा के लिए वास्तव में खोज इंजनों यानी सितारों, इन-स्टॉक-प्राइसिंग और अन्य भत्तों में दिखाई देता है जो खोज परिणामों के भीतर दिखाई देते हैं (आमतौर पर 2-3 महीने)। जब तक आपका कोड रिच स्निपेट टेस्ट में ठीक से चेक नहीं करता है, तब तक आप बहुत कम कर सकते हैं ... बस ग्राहकों को बताएं कि इसमें 2-3 महीने लगते हैं और आपको कभी भी समृद्ध डेटा का वादा नहीं करना चाहिए क्योंकि वास्तव में परिणाम डेटा में दिखाई देते हैं क्योंकि Google हमेशा डेटा वापस नहीं करता है वास्तविक परिणामों में।
साइमन हैटर

जवाबों:


5

यहां बताया गया है कि यह उन साइटों पर आधारित है, जिन्हें हमने हाल ही में जारी किया है + एक दंपति जो थोड़ी देर भागे हैं।

सभी नई स्कीमों का उपयोग करने के साथ-साथ crumbs और समीक्षा डेटा के लिए डेटाबैक-वॉटैब का उपयोग करके एक नई साइट को मानते हुए, आपको कम से कम 3 महीने के अंतराल समय की अपेक्षा करनी चाहिए। आप Google वेबमास्टर टूल स्कीमा रिपोर्ट को कुछ भी नहीं करते देखेंगे - कोई नई समीक्षा नहीं, कोई नया पृष्ठ नहीं .... यहां तक ​​कि स्पाइक्स तो मायने रखता है या झूठे अलार्म। चिंता मत करो इसकी सिर्फ GADHD। महीने 2 (ईश) में एक दिन आप देख सकते हैं कि सभी काउंट्स में भरना शुरू हो जाता है, स्तर बाहर हो जाता है, और स्थिर हो जाता है। आप ट्रैफ़िक / ताज़े पृष्ठों पर फ़ॉलबैक डेटा-वकब SERP विजेट सक्रिय कर सकते हैं। इस बिंदु से एक महीने में, स्कीमा.ओआरई एसईआरपी विजेट्स को यह मानकर सक्रिय होना चाहिए कि जीडब्ल्यूटी में कोई त्रुटि नहीं है। आप इस समय के दौरान विशेष रूप से समीक्षाओं, मूल्य आदि के लिए आगे-पीछे देख सकते हैं। एक दिन वे एक और बंद होंगे। एक क्वेरी पर, दूसरा बंद। आखिरकार SERPs स्थिर हो जाएगा,

मूल प्रश्न के लिए एक टिप्पणी में क्लोजनेटोक ने कहा, RDF ताजा फोकल डेटा / पृष्ठों से चलाता है। उन दफन पृष्ठों के लिए 3 महीने से अधिक समय लग सकता है जो कभी भी हिट नहीं होते हैं, संभवतः वास्तव में बासी लोगों के लिए एक वर्ष तक। इसका एक अच्छा विचार उन क्षेत्रों को फिर से ताज़ा करना है जिन्हें आप समृद्ध SERP विजेट्स को ट्रिगर करना चाहते हैं। Google दिखाएगा कि वे GWT में अनुक्रमित-आरडीएफ हैं, रॉक एन रोल के लिए तैयार हैं, लेकिन वास्तविक एसआरपी विजेट तब तक सक्रिय नहीं होंगे जब तक कि ट्रिगर की अनुमति नहीं देता। यह ट्रिगर ताज़ा / ट्रैफ़िक / रुचि / आपके "पहले से अनुक्रमित" RDF पृष्ठों को खोजता है।

बस धैर्य रखें और बहुत से फ़्लू और विसंगतियों को देखने की अपेक्षा करें। आरडीएफ बॉट इंडेक्स भविष्यवाणी इंजन + पॉप प्रश्नों के साथ कैसे रोल करता है, मुझे लगता है।


1
इस उत्तर पर फिर से आना: ऐसा प्रतीत होता है जैसे कि Google+ ने b + के लिए जी + लोकल के साथ संयुक्त स्थिति में लॉग इन किया है, इसका असर इस बात पर पड़ता है कि आपका SERPS संरचित डेटा कितनी तेजी से दिखाता है। एक अंग पर, वे SERP स्तर पर सामाजिक + स्थानीय रुचि पर नज़र रखने लगते हैं और वे वहाँ दिखाए जाने वाले समृद्ध स्निपेट्स में अधिक उदार प्रतीत होते हैं। उदाहरण के लिए, समीक्षा सितारे आपके इलाके में G + उपयोगकर्ता और किसी भी गैर-G + उपयोगकर्ता को दिखा सकते हैं। जबकि, गैर-लॉग-इन-गैर-स्थानीय दुनिया के बाकी हिस्सों के लिए समान सितारों को दिखाने में एक और महीना लग सकता है। टिप्पणी का नैतिक: सुनिश्चित करें कि आपने अपनी साइट के लिए G + स्थानीय सेट किया है, फिर प्रकाशक के रूप में भी सत्यापित करें।
धापिन ३०'१४

ध्यान दें कि मेरे वेबमास्टर टूल ने मेरी साइट पर लाइव होने के 6 दिन बाद मेरा संरचित डेटा दिखाना शुरू कर दिया है ताकि अब इसमें सुधार हो सके
मैट विल्को
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.