HTTRACK आंशिक डाउनलोड कर रहा है


2

हम HTTRACKऑफ़लाइन देखने के लिए संपूर्ण वेबसाइट डाउनलोड करने के लिए उपयोग कर रहे हैं ।

समस्या पूरी साइट को स्तर 4 ( -r4) के साथ डाउनलोड कर रही है, कुछ लिंक काम करने में विफल हैं।

उदाहरण के लिए यदि आप साइट को कैप्चर करने के लिए क्रैक का उपयोग करते हैं:

http://advaitasharada.sringeri.net/display/bhashya/Gita

यह इसके एक हिस्से को ही पकड़ता है, लेकिन यह लिंक को दाईं ओर छोड़ता है। गीता के अन्य अध्यायों वाले अन्य लिंक, #fragments के साथ चिह्नित हैं।

http://advaitasharada.sringeri.net/display/bhashya/Gita#BG_C02 (लिंक केवल तभी काम करता है जब ब्राउज़र पर क्लिक किया जाता है)

  1. HTTRACKसभी लिंक को डाउनलोड क्यों नहीं करता है ? क्या करें?
  2. इसके अलावा searchकाम नहीं कर रहा है। यह साइट के मूल डोमेन की ओर जाता है (जिसे इंटरनेट कनेक्शन की आवश्यकता होती है)।

1
पहले भाग का उत्तर: वेबसाइट सर्वर-साइड स्क्रिप्टिंग का उपयोग करती है , अर्थात, अनुरोध किए जाने पर सर्वर मक्खी पर वेबपेज बनाता है। HTTRack केवल स्थैतिक वेबपेज डाउनलोड कर सकता है और इस प्रकार उन अंशों को याद करता है जो मक्खी पर उत्पन्न होते हैं।
करण करण

1
यह डाउनलोड करने योग्य है, बल्कि बड़ा है, हालांकि 2.6 जीबी, आप wget की कोशिश कर सकते हैं
Junme

धन्यवाद @KaranKaran और @Junme! यह मुझे संदेह है। इसमें सर्वर-साइड स्क्रिप्टिंग शामिल है! जुनमे, मैंने कोशिश की wget, लेकिन यह काम नहीं कर रहा था। आकार कोई समस्या नहीं है। मैंने 6.6 जीबी दिया -r6और HTTRACKडाउनलोड किया! भगवान जानता है कि इसे इतना डेटा कैसे मिला! क्या आप कृपया उस wget कमांड को पोस्ट कर सकते हैं जिसका उपयोग आपने उत्तर के रूप में किया है? क्या आपने साइट के दाहिने साइड लिंक की जाँच की है?
ब्र। सायन

जवाबों:


0

वेबसाइट सर्वर-साइड स्क्रिप्टिंग का उपयोग करती है , अर्थात, अनुरोध किए जाने पर सर्वर मक्खी पर वेबपेज बनाता है। HTTRack केवल स्थैतिक वेबपेज डाउनलोड कर सकता है और इस प्रकार उन अंशों को याद करता है जो मक्खी पर उत्पन्न होते हैं।


क्या वेबसाइट डाउनलोड करने का कोई और तरीका है?
ब्र। सयान
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.