मैं एक वेब पेज की एक स्थानीय प्रतिलिपि डाउनलोड करना चाहता हूं और सभी सीएसएस, चित्र, जावास्क्रिप्ट आदि प्राप्त कर सकता हूं।
पिछली चर्चाओं में (जैसे यहां और यहां , दोनों जिनमें से दो साल से अधिक पुराने हैं), दो सुझावों को आम तौर पर आगे रखा जाता है: wget -p
और क्रैक । हालाँकि, ये सुझाव दोनों विफल होते हैं। मैं कार्य को पूरा करने के लिए इनमें से किसी भी उपकरण का उपयोग करने में मदद की बहुत सराहना करता हूं; विकल्प भी प्यारे हैं।
विकल्प 1: wget -p
wget -p
वेब पेज के सभी आवश्यक शर्तें (css, images, js) को सफलतापूर्वक डाउनलोड करता है। हालाँकि, जब मैं एक वेब ब्राउज़र में स्थानीय प्रतिलिपि लोड करता हूं, तो पृष्ठ किसी और चीज को लोड करने में असमर्थ होता है, क्योंकि उन पूर्वापेक्षाओं के पथ को वेब पर संस्करण से संशोधित नहीं किया गया है।
उदाहरण के लिए:
- पेज के html में,
<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />
नए रिश्तेदार पथ को इंगित करने के लिए सही करने की आवश्यकता होगीfoo.css
- सीएसएस फ़ाइल में,
background-image: url(/images/bar.png)
इसी तरह समायोजित करने की आवश्यकता होगी।
क्या कोई रास्ता संशोधित करना है wget -p
ताकि रास्ते सही हों?
विकल्प 2: क्रैकस
httrack
संपूर्ण वेबसाइटों को मिरर करने के लिए एक महान उपकरण की तरह लगता है, लेकिन यह मेरे लिए स्पष्ट नहीं है कि किसी एक पृष्ठ की स्थानीय प्रतिलिपि बनाने के लिए इसका उपयोग कैसे करें। इस विषय (जैसे यहाँ ) के बारे में फ़्रेन्ड फ़ोरम में बहुत चर्चा है लेकिन किसी को भी बुलेट-प्रूफ समाधान नहीं लगता है।
विकल्प 3: एक और उपकरण?
कुछ लोगों ने सशुल्क टूल सुझाए हैं, लेकिन मैं अभी विश्वास नहीं कर सकता कि वहाँ कोई मुफ्त समाधान नहीं है।
wget --random-wait -r -p -e robots=off -U mozilla http://www.example.com
wget -E -H -k -K -p http://example.com
- केवल मेरे लिए यह काम किया।