मैं एक पूरी वेबसाइट (उप-साइटों के साथ) डाउनलोड करना चाहता हूं। क्या उसके लिए कोई उपकरण है?
--convert-links
wget में उपयोग ) उन साइटों को प्रकट नहीं करेंगे जो केवल अन्य चीजों के बीच एक फॉर्म सबमिट करके प्रकट होते हैं।
मैं एक पूरी वेबसाइट (उप-साइटों के साथ) डाउनलोड करना चाहता हूं। क्या उसके लिए कोई उपकरण है?
--convert-links
wget में उपयोग ) उन साइटों को प्रकट नहीं करेंगे जो केवल अन्य चीजों के बीच एक फॉर्म सबमिट करके प्रकट होते हैं।
जवाबों:
यहाँ से 10 उदाहरण का प्रयास करें :
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
: मिररिंग के लिए उपयुक्त विकल्पों को चालू करें।
-p
: दिए गए HTML पृष्ठ को ठीक से प्रदर्शित करने के लिए आवश्यक सभी फाइलें डाउनलोड करें।
--convert-links
: डाउनलोड के बाद, स्थानीय देखने के लिए दस्तावेज़ में लिंक परिवर्तित करें।
-P ./LOCAL-DIR
: निर्दिष्ट निर्देशिका के लिए सभी फ़ाइलों और निर्देशिकाओं को बचाएं।--wait=seconds
यदि आप साइट के लिए अधिक अनुकूल होना चाहते हैं तो आप तर्क का उपयोग करने पर विचार कर सकते हैं; यह पुनर्प्राप्ति के बीच निर्दिष्ट सेकंड की प्रतीक्षा करेगा।
क्रैक वह उपकरण है जिसे आप खोज रहे हैं।
HTTrack आपको इंटरनेट से एक स्थानीय निर्देशिका में वर्ल्ड वाइड वेब साइट डाउनलोड करने की अनुमति देता है, जो कि सभी निर्देशिकाओं का पुनरावर्ती निर्माण करता है, जिससे HTML, चित्र और सर्वर से अन्य फाइलें आपके कंप्यूटर पर मिलती हैं। HTTrack मूल साइट के सापेक्ष लिंक-संरचना की व्यवस्था करता है।
साथ wget
आप किसी संपूर्ण वेबसाइट डाउनलोड कर सकते हैं, तो आप का उपयोग करना चाहिए -r
एक के लिए स्विच पुनरावर्ती डाउनलोड। उदाहरण के लिए,
wget -r http://www.google.com
WEBHTTRACK WEBSITE COPIER ऑफलाइन ब्राउजिंग के लिए आपकी हार्ड डिस्क पर पूरी वेबसाइट डाउनलोड करने का एक आसान टूल है। Ubuntu सॉफ़्टवेयर केंद्र लॉन्च करें और खोज बॉक्स में उद्धरण के बिना "वेबहट्रैक वेबसाइट कॉपियर" टाइप करें। अपने सिस्टम पर सॉफ़्टवेयर केंद्र से इसे चुनें और डाउनलोड करें। वेबचैट को लॉचर या स्टार्ट मेन्यू में से शुरू करें, वहां से आप अपने शानदार डाउनलोड के लिए इस बेहतरीन टूल का आनंद लेना शुरू कर सकते हैं।
मुझे उप डोमेन के बारे में नहीं पता है, अर्थात, उप-साइटें, लेकिन पूरी साइट को हथियाने के लिए विग का उपयोग किया जा सकता है। इस सुपरसुअर प्रश्न पर एक नज़र डालें । यह कहता है कि आप -D domain1.com,domain2.com
एक स्क्रिप्ट में विभिन्न डोमेन डाउनलोड करने के लिए उपयोग कर सकते हैं । मुझे लगता है कि आप उप-डोमेन को डाउनलोड करने के लिए उस विकल्प का उपयोग कर सकते हैं-D site1.somesite.com,site2.somesite.com
मैं बर्प का उपयोग करता हूं - मकड़ी का उपकरण, विग की तुलना में बहुत अधिक बुद्धिमान है, और यदि आवश्यक हो तो वर्गों से बचने के लिए कॉन्फ़िगर किया जा सकता है। बर्प सूट अपने आप में परीक्षण में सहायता के लिए उपकरणों का एक शक्तिशाली सेट है, लेकिन मकड़ी उपकरण बहुत प्रभावी है।
आप संपूर्ण वेबसाइट कमांड डाउनलोड कर सकते हैं:
wget -r -l 0 website
उदाहरण :
wget -r -l 0 http://google.com
यदि गति एक चिंता है (और सर्वर की भलाई नहीं है), तो आप puf की कोशिश कर सकते हैं , जो कि wget की तरह काम करता है लेकिन समानांतर में कई पृष्ठों को डाउनलोड कर सकता है। यह, हालांकि, एक तैयार उत्पाद नहीं है, बनाए रखा नहीं है और बहुत ही अनिर्दिष्ट है। फिर भी, बहुत सारी और बहुत सी छोटी फाइलों के साथ एक वेब साइट डाउनलोड करने के लिए, यह एक अच्छा विकल्प हो सकता है।