robots.txt पर टैग किए गए जवाब

Robots.txt वेब मालिकों को अपनी साइट के बारे में निर्देश देने के लिए वेबसाइट मालिकों द्वारा उपयोग की जाने वाली पाठ फ़ाइल है। मूल रूप से यह रोबोट को बताता है कि साइट के कौन से हिस्से खुले हैं और कौन से हिस्से बंद हैं। इसे द रोबोट्स एक्सक्लूजन प्रोटोकॉल कहा जाता है।

4
फाइलें मेरे पास हर वेबसाइट पर होनी चाहिए
मैं उन फाइलों की एक सूची रखना चाहता हूं जो हर वेबसाइट पर मौजूद होनी चाहिए। विचार अधिकांश ब्राउज़रों और बॉट्स को खुश करने और लॉग में 404 संदेशों की संख्या के साथ नीचे उतरने का है। अभी तक मेरे पास निम्नलिखित फाइलें हैं: /favicon.ico /robots.txt /sitemap.xml /apple-touch-icon-72x72-precomposed.png /apple-touch-icon-72x72.png /apple-touch-icon-precomposed.png …

6
अगर मैं कोई विशेष व्यवहार सेट नहीं करना चाहता हूं, तो क्या यह ठीक है यदि मैं एक robots.txt फ़ाइल को परेशान नहीं करता हूं?
अगर मैं कोई विशेष व्यवहार सेट नहीं करना चाहता हूं, तो क्या यह ठीक है यदि मैं एक robots.txt फ़ाइल को परेशान नहीं करता हूं? या एक की कमी हानिकारक हो सकती है?
29 robots.txt 

2
क्या खाली robots.txt और no robots.txt के बीच कोई अंतर है?
एक वेबसर्वर पर मुझे अब यह स्वीकार करना होगा कि मैंने देखा कि robots.txt खाली है। मुझे आश्चर्य हुआ कि क्या खाली robots.txt और कोई फ़ाइल के बीच कोई अंतर है। क्या क्रॉलर इन दो मामलों में अलग-अलग व्यवहार करते हैं? तो, क्या सिर्फ एक खाली robots.txt को हटाना सुरक्षित …

1
क्या हम URLs को ब्लॉक करने के लिए robots.txt फ़ाइल में regex का उपयोग कर सकते हैं?
मेरे पास कुछ डायनेमिक जेनरेट किए गए URL हैं। क्या मैं इन URLs को किसी robots.txt फ़ाइल में ब्लॉक करने के लिए regex का उपयोग कर सकता हूं?

2
मैं robots.txt के साथ पूरी निर्देशिका को कैसे समाप्त करूं?
मेरे पास दो साइट हैं जिन पर मैं वर्तमान में काम कर रहा हूं जो एक शॉपिंग कार्ट और एक अन्य दुकानदार है। उदाहरण के लिए दोनों एक ही डोमेन नाम के तहत हैं http://example.com/first_url http://example.com/second_url इन दोनों यूआरएल में उनके नीचे कई पेज हैं http://example.com/first_url/product1 http://example.com/first_url/product2 http://example.com/first_url/product3 http://example.com/second_url/product1 http://example.com/second_url/product2 …
19 seo  robots.txt 

2
Google खोज परिणामों में robots.txt में अस्वीकृत पृष्ठ शामिल हैं?
मेरी साइट पर कुछ पृष्ठ हैं जिन्हें मैं खोज इंजनों से दूर रखना चाहता हूं, इसलिए मैंने उन्हें अपनी robots.txtफ़ाइल में इस तरह से अस्वीकृत कर दिया : User-Agent: * Disallow: /email फिर भी मैंने हाल ही में देखा कि Google अब भी कभी-कभी उन पृष्ठों के लिंक अपने खोज …

7
क्या Google cache robots.txt करता है?
मैंने एक सप्ताह पहले अपनी एक साइट में एक robots.txt फ़ाइल जोड़ी , जिसमें Googlebot को कुछ URL प्राप्त करने का प्रयास करने से रोकना चाहिए था। हालाँकि, इस सप्ताहांत मैं Googlebot को उन सटीक URL को लोड करते हुए देख सकता हूँ। क्या Google कैशे robots.txt और, यदि ऐसा …

3
क्या robots.txt सर्वर की उप-निर्देशिका में हो सकता है?
मेरे पास एक उप-निर्देशिका है जिसे मैं खोज इंजन वेब क्रॉलर से छिपाना चाहूंगा। ऐसा करने का एक तरीका robots.txtसर्वर की रूट निर्देशिका (मानक तरीका) में उपयोग करना है। हालाँकि, कोई भी व्यक्ति जो वेबसाइट URL जानता है और कुछ बुनियादी वेब ज्ञान रखता है, वह robots.txt सामग्री का उपयोग …

4
साइट हैक की गई थी, Google से + से शुरू होने वाले सभी URL को हटाने की आवश्यकता है, robots.txt का उपयोग करें?
क्या आप कृपया मुझे बता सकते हैं कि robots.txtGoogle URL से अनुक्रमण को रोकने के लिए ऐसे URL को कैसे अवरुद्ध किया जाए ? http://www.example.com/+rt6s4ayv1e/d112587/ia0g64491218q मेरी वेबसाइट हैक कर ली गई थी जो अब बरामद हो गई है लेकिन हैकर ने Google में 5000 URL को अनुक्रमित किया है और …

3
न्यूनतम मान्य robots.txt फ़ाइल क्या है?
मुझे यह पसंद नहीं है कि मैं अपने वेब सर्वर के access.log में बहुत सारी 404 त्रुटियां देखूं । मुझे वे त्रुटियां हो रही हैं क्योंकि क्रॉलर एक robots.txt फ़ाइल खोलने का प्रयास करते हैं , लेकिन कोई भी नहीं खोज सका। इसलिए मैं एक सरल robots.txt फ़ाइल रखना चाहता …
14 robots.txt 

3
Robots.txt - CSS अनुमति या अस्वीकृति
क्या robots.txt में CSS और टेम्पलेट की अनुमति है ? यह किसी भी समस्याओं का कारण होना चाहिए? Joomla में, CSS और टेम्प्लेट्स को robots.txt में बंद कर दिया गया है । कृपया मेरी आगामी वेबसाइटों के लिए CSS, टेम्प्लेट इत्यादि के लिए रोबोट में डिसॉल्व करें या न करें, …
12 css  robots.txt 

3
Robots.txt: क्या मुझे ऐसे पृष्ठ को अस्वीकृत करने की आवश्यकता है जो कहीं भी लिंक नहीं है?
मेरी वेबसाइट पर कुछ पृष्ठ हैं जो मैं चाहता हूं कि उपयोगकर्ता केवल तभी यात्रा कर सकेगा जब मैं उसे URL दे दूंगा। यदि मैं एकल पृष्ठों को अस्वीकार करता हूं robots.txt, तो वे इसे देख रहे किसी भी व्यक्ति द्वारा दिखाई देंगे। मेरा सवाल है: अगर मैं उन्हें कहीं …
12 robots.txt 

2
क्या बॉट्स वास्तव में एक साइट पर देने लायक हैं?
कई बॉट्स लिखे जाने के बाद, और एक साइट को क्रॉल करने के लिए होने वाली रैंडम बॉट्स की भारी मात्रा को देखा, मैं एक वेबमास्टर के रूप में सोच रहा हूं कि क्या बॉट्स वास्तव में किसी साइट पर देने लायक हैं? मेरा पहला विचार यह है कि साइट …

4
Google / खोज इंजन एसईओ परिणाम से एक उपडोमेन छिपाएँ?
मेरे पास एक उप-डोमेन है जिसे मैं किसी भी खोज इंजन परिणाम में सूचीबद्ध नहीं करना चाहता हूं। मान लीजिए कि मेरे पास है: http://www.example.com http://child.example.com मैं डोमेन के सभी URL कैसे छिपा सकता हूं child.example.comजो वर्तमान में खोज इंजन परिणामों में दिखाई दे रहे हैं?

2
Google वेबमास्टर टूल मुझे बताता है कि रोबोट साइटमैप तक पहुंच को रोक रहा है
यह मेरा robots.txt है : User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Sitemap: http://www.example.org/sitemap.xml.gz लेकिन Google वेबमास्टर टूल्स ने मुझे बताया कि रोबोट साइटमैप तक पहुंच को रोक रहा है: आपके साइटमैप तक पहुँचने का प्रयास करते समय हमें एक त्रुटि का सामना करना पड़ा। कृपया सुनिश्चित करें कि आपका साइटमैप …

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.