मैं इस वेबपृष्ठ और इसके द्वारा लिंक किए गए सभी पृष्ठों को सहेजना चाहूंगा । और सहेजे गए वेबपृष्ठों के बीच समान लिंकिंग होने की उम्मीद है।
क्या प्रत्येक जुड़े पृष्ठों को खोलने और सहेजने के बजाय कुछ तरीके हैं?
मैं इस वेबपृष्ठ और इसके द्वारा लिंक किए गए सभी पृष्ठों को सहेजना चाहूंगा । और सहेजे गए वेबपृष्ठों के बीच समान लिंकिंग होने की उम्मीद है।
क्या प्रत्येक जुड़े पृष्ठों को खोलने और सहेजने के बजाय कुछ तरीके हैं?
जवाबों:
आप वह कर सकते हैं जो आप wget कमांड लाइन उपयोगिता के साथ करना चाहते हैं । यदि आप इसे -r
विकल्प प्रदान करते हैं , तो यह वेब पृष्ठों को पुन: डाउनलोड करेगा। उदाहरण के लिए:
wget -r http://mat.gsia.cmu.edu/orclass/integer/integer.html
यह उस वेबपृष्ठ को डाउनलोड करेगा और इससे जुड़ी कुछ भी सामग्री। आप इसे केवल एक निश्चित स्तर के स्तर पर ही पुनर्जीवित कर सकते हैं, ऐसा करने के लिए, आप बस -r
एक संख्या प्रदान करते हैं । जैसे:
wget -r 5 http://mat.gsia.cmu.edu/orclass/integer/integer.html
यह धागा अभी पुराना है, लेकिन अन्य लोग इसे देख सकते हैं। धन्यवाद, वफ़र्स, मुझे सही दिशा में इंगित करने के लिए, लेकिन, वफ़र्स के जवाब पर विस्तार करने के लिए: वाइज़ के एक आधुनिक संस्करण में लिंक को फिर से शुरू करने और उन्हें स्थानीय रिश्तेदार लिंक होने के लिए पैच करने के लिए कई उपयोगी विकल्प हैं ताकि आप एक स्थानीय प्रतिलिपि नेविगेट कर सकें। एक वेब साइट की। स्थानीय लिंक पैच करने के लिए -r विकल्प का उपयोग करने के लिए -r विकल्प का उपयोग करें, -H विकल्प मूल एक के अलावा अन्य डोमेन में पार करने के लिए, -D विकल्प को सीमित करने के लिए कि आप किस डोमेन में पार करते हैं, -l विकल्प को सीमित करने के लिए पुनरावृत्ति की गहराई, और -p विकल्प यह सुनिश्चित करने के लिए कि आपके ट्रैवर्सल की पत्तियों में वह सब कुछ है जो उन्हें सही ढंग से प्रदर्शित करने की आवश्यकता है। उदाहरण के लिए, निम्नलिखित एक पेज डाउनलोड करेगा और वह सब कुछ जो इसे तुरंत लिंक करता है, इसे स्थानीय रूप से ब्राउज़ करने योग्य बनाता है,
wget -r -l 1 -p -k -H -D domain.com,relateddomain.com http://domain.com/page/in/domain
ऊपर दिए गए कमांड के समान, मैं बाहरी डेटा के मेगाबाइट को डाउनलोड किए बिना अपने स्थानीय डिस्क पर, बाहरी लिंक के साथ एक विकी पृष्ठ का एक हिस्सा डाउनलोड करने में सक्षम था। अब, जब मैं अपने ब्राउज़र में रूट पेज खोलता हूं, तो मैं इंटरनेट कनेक्शन के बिना पेड़ को नेविगेट कर सकता हूं। एकमात्र अड़चन यह थी कि रूट पेज को उपनिर्देशिकाओं में दफन किया गया था और मुझे इसे प्रदर्शित करने के लिए सुविधाजनक बनाने के लिए एक शीर्ष-स्तरीय पुनर्निर्देशन पृष्ठ बनाना था। इसे ठीक करने के लिए कुछ परीक्षण और त्रुटि हो सकती है। Wget मैन पेज पढ़ें और प्रयोग करें।
आप क्रैक जैसे वेबसाइट क्रॉलर का उपयोग कर सकते हैं , जो मुफ़्त है।
वेबसाइट से;
[कैंट्रैक] आपको इंटरनेट से एक स्थानीय निर्देशिका में वर्ल्ड वाइड वेब साइट डाउनलोड करने की अनुमति देता है, जो सभी निर्देशिकाओं का पुन: निर्माण कर रहा है, आपके कंप्यूटर से सर्वर से HTML, छवियां और अन्य फाइलें प्राप्त कर रहा है। HTTrack मूल साइट के सापेक्ष लिंक-संरचना की व्यवस्था करता है। बस अपने ब्राउज़र में "प्रतिबिंबित" वेबसाइट का एक पृष्ठ खोलें, और आप साइट को लिंक से लिंक तक ब्राउज़ कर सकते हैं, जैसे कि आप ऑनलाइन देख रहे थे।