मेरी साइट को क्रॉल करने और मुझे मृत लिंक और अनलिंक की गई फ़ाइलों को खोजने में मदद करने के लिए अच्छा उपकरण [बंद]


21

मेरे पास एक बहुत बड़ी विरासत वाली साइट है जिसका शाब्दिक रूप से हजारों पीडीएफ है जो कभी-कभी किसी डेटाबेस में खाता है, लेकिन अक्सर पृष्ठ पर लिंक होते हैं, और साइट पर अधिकांश हर निर्देशिका में संग्रहीत होते हैं।

मैंने अपनी साइट पर सभी लिंक का पालन करने के लिए एक php क्रॉलर लिखा है, और फिर मैं तुलना कर रहा हूं कि निर्देशिका संरचना के एक डंप के खिलाफ, लेकिन क्या कुछ आसान है?


यह भी देखें webmasters.stackexchange.com/questions/13310/... जो रूप में अच्छी तरह वर्तनी-जांच के बारे में पूछता है।
जेम्स स्कैप

जवाबों:


15

मैंने Xenu के लिंक स्लीथ का उपयोग किया है । यह बहुत अच्छी तरह से काम करता है, बस यकीन है कि अपने आप को डॉस के लिए नहीं!


1
विकल्पों में 'ऑर्फ़न फ़ाइल्स' विकल्प की जाँच करें और यह आपकी साइट के लिए एक ftp लॉगिन के लिए संकेत देगा।
जूल

क्या इस पृष्ठ को प्राप्त करने के लिए आपको साइटों को भी लॉगिन करना होगा?
डोनी वी।

@Jim मैं कैसे देख सकता हूं कि टूटी हुई कड़ी किस पृष्ठ पर है?
रोब

क्रॉल पूरा होने के बाद एक रिपोर्ट है जो आपको जानकारी बताएगी। साइट के आकार और टूटी हुई लिंक की संख्या के आधार पर, पार्स करना मुश्किल हो सकता है। मैं आमतौर पर क्रॉल करने से पहले रिपोर्टिंग विकल्पों को समायोजित करता हूं, और मैं रिपोर्ट को एक पाठ फ़ाइल के रूप में खोलता हूं (क्योंकि यह .htm है) और उस सामग्री को हटा दें जो इसे अधिक प्रबंधनीय बनाने के लिए उचित नहीं है। उम्मीद है की यह मदद करेगा।
२४'१२ को १३:५

6

यदि आप विंडोज़ 7 का उपयोग कर रहे हैं तो सबसे अच्छा उपकरण IIS7 का SEO टूलकिट 1.0 है। यह मुफ़्त है और आप इसे मुफ्त में डाउनलोड कर सकते हैं।

यह टूल किसी भी साइट को स्कैन करेगा और आपको बताएगा कि सभी डेड लिंक कहां हैं, पेज लोड होने में कितने समय लगते हैं, किन पेजों में मिसिंग टाइटल्स, डुप्लीकेट टाइटल, कीवर्ड्स और डिस्क्रिप्शन के लिए समान हैं और किन पेजों ने HTML को तोड़ा है।


1
मैंने इसे व्यक्तिगत रूप से उपयोग किया है, और यह स्कैनिंग के लिए और निश्चित रूप से एसईओ के लिए उत्कृष्ट है, लेकिन एक्सनू में एफ़टीपी की जाँच ने इसे बाहर कर दिया।
MrChrister


1

मैं बड़ी स्थैतिक साइटों को जोड़ने के लिए लिंकलिंट का बहुत बड़ा प्रशंसक हूं , अगर आपके पास एक यूनिक्स कमांड लाइन है (मैंने लिनक्स, मैकओएस और फ्रीबीएसडी पर उपयोग किया है)। स्थापना निर्देशों के लिए उनकी साइट देखें। एक बार स्थापित होने के बाद, मैं एक फ़ाइल बनाता हूं जिसे कॉल किया जाता check.llहै:

linklint @check.ll

यहाँ मेरा check.ll फ़ाइल कैसा दिखता है

# linklint
-doc .
-delay 0
-http
-htmlonly
-limit 4000
-net
-host www.example.com
-timeout 10

यह क्रॉल www.example.com-संदर्भित रिपोर्ट्स के साथ HTML फ़ाइलों को क्रॉल और उत्पन्न करता है जो टूटी हुई, गुम, आदि हैं।


1

Microsys के कई उत्पाद हैं , विशेष रूप से उनके A1 साइटमैप जेनरेटर और A1 वेबसाइट एनालाइज़र जो आपकी वेबसाइट को क्रॉल करेंगे और हर उस चीज़ की रिपोर्ट करेंगे, जिसके बारे में आप संभवतः कल्पना कर सकते हैं।

इसमें टूटे हुए लिंक शामिल हैं, लेकिन आपके सभी पृष्ठों का एक टेबल व्यू भी है ताकि आप समान <शीर्षक> और मेटा विवरण टैग, नोफ़्लो लिंक, मेटा नॉइडेक्स जैसे वेबपेजों और पूरी तरह से बहुत सारी बीमारियों की तुलना कर सकें, जिन्हें बस एक तेज़ नज़र की ज़रूरत है ठीक करने के लिए एक त्वरित हाथ।


हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.