मैं पूरी वेबसाइट कैसे डाउनलोड कर सकता हूं?


351

मैं वेबसाइट से सभी पेज कैसे डाउनलोड कर सकता हूं?

कोई भी मंच ठीक है।


2
की जाँच करें serverfault.com/questions/45096/website-backup-and-download सर्वर दोष पर।
मार्को कार्टर

@tnorthcutt, मैं भी हैरान हूं। अगर मुझे गलत तरीके से याद नहीं है, तो मेरे Wget का उत्तर स्वीकार किया जाता था, और यह एक सुलझी हुई चीज की तरह दिखता था। मैं हालांकि शिकायत नहीं कर रहा हूं - अचानक नए सिरे से ध्यान देने से मुझे बाउंटी के प्रतिनिधि के मूल्य से अधिक मिला। : पी
जोनिक

क्या आपने IDM की कोशिश की? superuser.com/questions/14403/… मेरी पोस्ट नीचे दबी हुई है। IDM में आपको क्या मिला?
लेज़र

5
@ जो: मदद कर सकते हैं यदि आप इस बारे में जानकारी देंगे कि क्या गायब विशेषताएं हैं ...
इलारी काजस्ट

Browse-offline.com वेब-साइट का पूरा पेड़ डाउनलोड कर सकते हैं ताकि आप इसे ... ऑफ़लाइन ब्राउज़ कर सकें
Menelaos Vergis

जवाबों:


334

HTTRACK संपूर्ण साइट की सामग्री की प्रतिलिपि बनाने के लिए एक विजेता की तरह काम करता है। यह उपकरण सक्रिय कोड सामग्री के साथ एक वेबसाइट बनाने के लिए आवश्यक टुकड़ों को भी हड़प सकता है। मैं उस सामान को देखकर आश्चर्यचकित हूं जो इसे ऑफ़लाइन दोहरा सकता है।

यह कार्यक्रम आपको इसकी आवश्यकता है।

हैप्पी हंटिंग!


7
वर्षों से इसका उपयोग किया जा रहा है - अत्यधिक अनुशंसित।
Umber Ferrule

4
हालांकि यह सर्वर पर चलने वाले वास्तविक एएसपी कोड की नकल करेगा?
टैपट्रॉनिक

8
@ ओप्टिमल सॉल्यूशंस: नहीं, यह संभव नहीं है। इसके लिए आपको सर्वर या स्रोत कोड तक पहुंच की आवश्यकता होगी।
साशा चोडगोव

2
प्राधिकरण के साथ साइटों के लिए दोनों क्रैक और wget की कोशिश करने के बाद, मुझे wget के पक्ष में झुकना होगा। उन मामलों में काम करने के लिए नोकरी नहीं मिल सकी।
सिंह

1
प्रमाणीकरण के लिए विकल्प क्या है?
विन्सेन्ट मैथ्यू

272

Wget इस तरह के कार्य के लिए एक क्लासिक कमांड-लाइन टूल है। यह अधिकांश यूनिक्स / लिनक्स सिस्टम के साथ आता है, और आप इसे विंडोज के लिए भी प्राप्त कर सकते हैं । एक मैक पर, Homebrew इसे स्थापित करने का सबसे आसान तरीका है ( brew install wget)।

आप ऐसा कुछ करेंगे:

wget -r --no-parent http://site.com/songs/

अधिक जानकारी के लिए, Wget मैनुअल और उसके उदाहरण देखें , या जैसे ये:


12
इससे बेहतर कोई जवाब नहीं है - wget कुछ भी कर सकता है: 3
फ़ॉसी

6
+1 के लिए - माता-पिता को शामिल करने के लिए। निश्चित रूप से उपयोग करें - आर के बजाय सिर। और आप अन्य सर्वर के लिंक का पालन नहीं करने के लिए -L / - के सापेक्ष शामिल करना चाह सकते हैं।
क्वैक

2
जैसा कि मैंने CANrack.com से भी पूछा - क्या इस cmd लाइन टूल को ASP कोड मिलेगा या इसे सिर्फ HTML का प्रतिपादन मिलेगा? मुझे इसे आज़माना ही है। डेवलपर्स के लिए यह थोड़ा चिंताजनक हो सकता है अगर ऐसा होता है ...
Taptronic

6
@optimal, निश्चित रूप से HTML आउटपुट - यह कोड तभी मिलेगा जब सर्वर बुरी तरह से गलत था
Jonik

2
दुर्भाग्य से यह मेरे लिए काम नहीं करता है - सीएसएस फ़ाइलों के लिंक के साथ एक समस्या है, वे रिश्तेदार के रूप में नहीं बदले गए हैं, आप फ़ाइलों में इस तरह से कुछ देख सकते हैं: <लिंक rel = "स्टाइलशीट" प्रकार = "पाठ / सीएसएस" href = "/ स्थिर / css / reset.css" मीडिया = "स्क्रीन" /> जो स्थानीय स्तर पर अच्छी तरह से काम नहीं करता है, जब तक कि कुछ डीआईआर एक जड़ है यह सोचने के लिए फ़ायरफ़ॉक्स चाल करने के लिए एक बाज नहीं है।
Gorn

148

Wget का उपयोग करें:

wget -m -p -E -k www.example.com

समझाया गया विकल्प:

-m, --mirror            Turns on recursion and time-stamping, sets infinite 
                          recursion depth, and keeps FTP directory listings.
-p, --page-requisites   Get all images, etc. needed to display HTML page.
-E, --adjust-extension  Save HTML/CSS files with .html/.css extensions.
-k, --convert-links     Make links in downloaded HTML point to local files.

8
सुझाए गए विकल्पों के लिए स्पष्टीकरण प्रदान करने के लिए +1। (हालांकि मुझे नहीं लगता --mirrorकि बहुत आत्म-व्याख्यात्मक है। यहाँ आदमी पृष्ठ से है: " यह विकल्प पुनरावर्तन और समय-स्टैम्पिंग पर बदल जाता है, अनंत पुनरावृत्ति की गहराई सेट करता है और एफ़टीपी निर्देशिका लिस्टिंग रखता है। यह वर्तमान में -r -N के बराबर है।" l inf --no-
remove-

2
यदि आप उस डोमेन के नाम के साथ एक फ़ोल्डर में सब कुछ डाउनलोड नहीं करना चाहते हैं जिसे आप दर्पण करना चाहते हैं, तो अपना खुद का फ़ोल्डर बनाएं और एनएचएच विकल्प का उपयोग करें (जो मेजबान भाग को छोड़ देता है)।
राफेल बुगाजेवस्की

2
क्या होगा अगर Auth की आवश्यकता है?
वैल

4
मैंने आपका उपयोग करने की कोशिश की wget --mirror -p --html-extension --convert-links www.example.comऔर यह सिर्फ सूचकांक डाउनलोड किया। मुझे लगता है कि आपको -rपूरी साइट डाउनलोड करने की आवश्यकता है ।
एरिक ब्रेटो

4
ट्रैफ़िक / बहुत अधिक अनुरोधों के कारण किसी साइट को मारने से संबंधित लोगों के -w secondsलिए --limit-rate=amount, डाउनलोड करने के दौरान उपयोग करने के लिए अधिकतम बैंडविड्थ निर्दिष्ट करने के लिए ( या अनुरोधों के बीच कई
सेकंड का इंतजार


8

इंटरनेट डाउनलोड प्रबंधक में बहुत सारे विकल्पों के साथ एक साइट धरनेवाला उपयोगिता है - जो आपको किसी भी वेबसाइट को पूरी तरह से डाउनलोड करने की सुविधा देता है, जिस तरह से आप चाहते हैं।

  1. आप डाउनलोड करने के लिए पृष्ठों / फ़ाइलों के आकार पर सीमा निर्धारित कर सकते हैं

  2. आप विज़िट करने के लिए शाखा साइटों की संख्या निर्धारित कर सकते हैं

  3. आप स्क्रिप्ट / पॉपअप / डुप्लिकेट के व्यवहार का तरीका बदल सकते हैं

  4. आप एक डोमेन निर्दिष्ट कर सकते हैं, केवल उस डोमेन के तहत आवश्यक सेटिंग्स को पूरा करने वाले सभी पृष्ठ / फाइलें डाउनलोड की जाएंगी

  5. ब्राउजिंग के लिए लिंक को ऑफलाइन लिंक में बदला जा सकता है

  6. आपके पास टेम्प्लेट हैं जो आपको आपके लिए उपरोक्त सेटिंग्स चुनने देते हैं

यहां छवि विवरण दर्ज करें

हालांकि यह सॉफ्टवेयर मुक्त नहीं है - देखें कि क्या यह आपकी आवश्यकताओं के अनुरूप है, मूल्यांकन संस्करण का उपयोग करें।



5

मैं उन ऑनलाइन बफ़रिंग को संबोधित करूँगा जो ब्राउज़र उपयोग करते हैं ...

आमतौर पर अधिकांश ब्राउज़र एक ब्राउजिंग कैशे का उपयोग करते हैं ताकि आप किसी वेबसाइट से डाउनलोड की जाने वाली फाइलों को थोड़ी देर तक रोक कर रख सकें ताकि आपको बार-बार स्थिर चित्र और सामग्री डाउनलोड न करनी पड़े। यह कुछ परिस्थितियों में चीजों को काफी तेज कर सकता है। सामान्यतया, अधिकांश ब्राउज़र कैश एक निश्चित आकार तक सीमित होते हैं और जब यह उस सीमा को हिट करता है, तो यह कैश की सबसे पुरानी फाइलों को हटा देगा।

आईएसपी में कैशिंग सर्वर होते हैं जो ईएसपीएन और सीएनएन जैसी आमतौर पर एक्सेस की गई वेबसाइटों की प्रतियां रखते हैं। इससे उन्हें हर बार अपने नेटवर्क पर किसी के वहां जाने से इन साइटों को रोकने की परेशानी से बचा जाता है। यह आईएसपी को बाहरी साइटों के लिए डुप्लिकेट किए गए अनुरोधों की मात्रा में एक महत्वपूर्ण बचत की राशि दे सकता है।




4

मैंने कई वर्षों में ऐसा नहीं किया है, लेकिन अभी भी कुछ उपयोगिताएं हैं। आप वेब स्नेक आज़माना चाह सकते हैं । मेरा मानना ​​है कि मैंने सालों पहले इसका इस्तेमाल किया था। आपका नाम पढ़ते ही मुझे तुरंत नाम याद आ गया।

मैं स्टेसी से सहमत हूं। कृपया उनकी साइट को अंकित न करें। बहुत बुरा।


3

BackStreet ब्राउज़र की कोशिश करो ।

यह एक स्वतंत्र, शक्तिशाली ऑफ़लाइन ब्राउज़र है। एक हाई-स्पीड, मल्टी-थ्रेडिंग वेबसाइट डाउनलोड और देखने का कार्यक्रम। एक साथ कई सर्वर अनुरोध करने से, BackStreet Browser HTML, ग्राफ़िक्स, जावा Applets, साउंड और अन्य उपयोगकर्ता की निश्चित फ़ाइलों सहित पूरी वेबसाइट या किसी हिस्से का डाउनलोड कर सकता है, और आपके हार्ड ड्राइव की सभी फाइलों को उनके मूल प्रारूप में सहेजता है, या एक संकुचित ज़िप फ़ाइल के रूप में और ऑफ़लाइन देखें।

यहां छवि विवरण दर्ज करें


3

टेलीपोर्ट प्रो एक और मुफ्त समाधान है जो आपके लक्ष्य से किसी भी और सभी फ़ाइलों को कॉपी करेगा (इसमें एक भुगतान किया गया संस्करण भी है जो आपको सामग्री के अधिक पृष्ठ खींचने की अनुमति देगा)।


3

DownThemAll एक फ़ायरफ़ॉक्स ऐड-ऑन है जो एक क्लिक में किसी विशेष वेब पेज के लिए सभी सामग्री (उदाहरण के लिए ऑडियो या वीडियो फ़ाइलों) को डाउनलोड करेगा। यह पूरी साइट को डाउनलोड नहीं करता है, लेकिन यह उस तरह की बात हो सकती है जिस सवाल की तलाश थी।


यह केवल लिंक (HTML) और मीडिया (चित्र) डाउनलोड करने में सक्षम है।
ऐन

3

Linux और OS X के लिए: मैंने पूरी वेबसाइटों को WARC फ़ाइलों को संग्रहीत करने के लिए ग्रैब-साइट लिखी । इन WARC फ़ाइलों को ब्राउज़ या निकाला जा सकता है । ग्रैब-साइट आपको नियमित अभिव्यक्ति का उपयोग करने के लिए किस URL को नियंत्रित करने देता है, और क्रॉल चलने पर इन्हें बदला जा सकता है। यह कबाड़ यूआरएल की अनदेखी के लिए चूक का एक व्यापक सेट के साथ भी आता है ।

क्रॉल की निगरानी के लिए एक वेब डैशबोर्ड है, साथ ही एक निश्चित आकार पर वीडियो सामग्री या प्रतिक्रियाओं को स्किप करने के लिए अतिरिक्त विकल्प भी हैं।


1

बिजली का तार

हालांकि इस संसाधन का उल्लेख पहले ही किया जा चुका था और कमांड लाइन इतनी सहज थी कि मुझे लगा कि यह उल्लेख योग्य है: wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/

स्पष्टीकरण पर समझाया गया यह कोड देखें


0

आदरणीय FreeDownloadManager.org में यह सुविधा भी है।

नि: शुल्क डाउनलोड प्रबंधक दो रूपों में दो रूपों में होता है: साइट एक्सप्लोरर और साइट स्पाइडर :

साइट एक्सप्लोरर
साइट एक्सप्लोरर आपको एक वेब साइट की फ़ोल्डर संरचना को देखने और आसानी से आवश्यक फ़ाइलों या फ़ोल्डरों को डाउनलोड करने देता है।
HTML स्पाइडर
आप HTML स्पाइडर के साथ पूरे वेब पेज या पूरी वेब साइट डाउनलोड कर सकते हैं। उपकरण को केवल निर्दिष्ट एक्सटेंशन वाली फ़ाइलों को डाउनलोड करने के लिए समायोजित किया जा सकता है।

मुझे लगता है कि साइट एक्सप्लोरर यह देखने के लिए उपयोगी है कि पूरी साइट को डाउनलोड करने का प्रयास करने से पहले किन फ़ोल्डरों को शामिल करना / बाहर करना - विशेष रूप से तब जब साइट में एक संपूर्ण फ़ोरम छुपा हो जिसे आप उदाहरण के लिए डाउनलोड नहीं करना चाहते हैं।


-1

डाउनलोड HTTracker यह वेबसाइटों को डाउनलोड करने के लिए बहुत आसान चरणों का पालन करेगा।

डाउनलोड लिंक: http://www.httrack.com/page/2/

वीडियो जो आपकी मदद कर सकता है: https://www.youtube.com/watch?v=7IHIGf6lcL4


के शीर्ष जवाब नकल -1
wjandrea

-3

फ़ायरफ़ॉक्स इसे मूल रूप से (कम से कम FF 42 कैन) कर सकता है। बस "पेज सहेजें" का उपयोग करें

यहां छवि विवरण दर्ज करें


6
गलत! सवाल पूछता है कि एक संपूर्ण वेब साइट को कैसे बचाया जाए। फ़ायरफ़ॉक्स ऐसा नहीं कर सकता।

2
आपकी विधि केवल तभी काम करती है जब वह एक पृष्ठ वाली साइट हो, लेकिन यदि साइट में 699 पृष्ठ हैं? बहुत थकाऊ होगा ...
क्विड

-4

मेरा मानना ​​है कि Google क्रोम डेस्कटॉप उपकरणों पर ऐसा कर सकता है, बस ब्राउज़र मेनू पर जाएं और वेबपेज सहेजें पर क्लिक करें।

यह भी ध्यान दें कि जेब जैसी सेवाएं वास्तव में वेबसाइट को बचा नहीं सकती हैं, और इस प्रकार सड़ांध को जोड़ने के लिए अतिसंवेदनशील हैं।

अंतिम रूप से ध्यान दें कि किसी वेबसाइट की सामग्री को कॉपी करना कॉपीराइट पर उल्लंघन कर सकता है, यदि यह लागू होता है।


3
आपके ब्राउज़र में एक वेब पेज एक वेब साइट के कई में से सिर्फ एक है ।
अर्जन

@ अर्जन मुझे लगता है कि मेरा विकल्प श्रम को गहन बनाता है। मेरा मानना ​​है कि लोगों के लिए केवल एक पृष्ठ को सहेजना अधिक आम है, इसलिए यह उत्तर उन लोगों के लिए बेहतर हो सकता है जो इसके लिए यहां आते हैं।
जिग्गंजेर
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.