मैं वेबसाइट से सभी पेज कैसे डाउनलोड कर सकता हूं?
कोई भी मंच ठीक है।
मैं वेबसाइट से सभी पेज कैसे डाउनलोड कर सकता हूं?
कोई भी मंच ठीक है।
जवाबों:
HTTRACK संपूर्ण साइट की सामग्री की प्रतिलिपि बनाने के लिए एक विजेता की तरह काम करता है। यह उपकरण सक्रिय कोड सामग्री के साथ एक वेबसाइट बनाने के लिए आवश्यक टुकड़ों को भी हड़प सकता है। मैं उस सामान को देखकर आश्चर्यचकित हूं जो इसे ऑफ़लाइन दोहरा सकता है।
यह कार्यक्रम आपको इसकी आवश्यकता है।
हैप्पी हंटिंग!
Wget इस तरह के कार्य के लिए एक क्लासिक कमांड-लाइन टूल है। यह अधिकांश यूनिक्स / लिनक्स सिस्टम के साथ आता है, और आप इसे विंडोज के लिए भी प्राप्त कर सकते हैं । एक मैक पर, Homebrew इसे स्थापित करने का सबसे आसान तरीका है ( brew install wget
)।
आप ऐसा कुछ करेंगे:
wget -r --no-parent http://site.com/songs/
अधिक जानकारी के लिए, Wget मैनुअल और उसके उदाहरण देखें , या जैसे ये:
Wget का उपयोग करें:
wget -m -p -E -k www.example.com
समझाया गया विकल्प:
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
--mirror
कि बहुत आत्म-व्याख्यात्मक है। यहाँ आदमी पृष्ठ से है: " यह विकल्प पुनरावर्तन और समय-स्टैम्पिंग पर बदल जाता है, अनंत पुनरावृत्ति की गहराई सेट करता है और एफ़टीपी निर्देशिका लिस्टिंग रखता है। यह वर्तमान में -r -N के बराबर है।" l inf --no-
wget --mirror -p --html-extension --convert-links www.example.com
और यह सिर्फ सूचकांक डाउनलोड किया। मुझे लगता है कि आपको -r
पूरी साइट डाउनलोड करने की आवश्यकता है ।
-w seconds
लिए --limit-rate=amount
, डाउनलोड करने के दौरान उपयोग करने के लिए अधिकतम बैंडविड्थ निर्दिष्ट करने के लिए ( या अनुरोधों के बीच कई
आपको स्क्रैपबुक , फ़ायरफ़ॉक्स एक्सटेंशन पर एक नज़र डालनी चाहिए । इसमें इन-डेप्थ कैप्चर मोड है ।
इंटरनेट डाउनलोड प्रबंधक में बहुत सारे विकल्पों के साथ एक साइट धरनेवाला उपयोगिता है - जो आपको किसी भी वेबसाइट को पूरी तरह से डाउनलोड करने की सुविधा देता है, जिस तरह से आप चाहते हैं।
आप डाउनलोड करने के लिए पृष्ठों / फ़ाइलों के आकार पर सीमा निर्धारित कर सकते हैं
आप विज़िट करने के लिए शाखा साइटों की संख्या निर्धारित कर सकते हैं
आप स्क्रिप्ट / पॉपअप / डुप्लिकेट के व्यवहार का तरीका बदल सकते हैं
आप एक डोमेन निर्दिष्ट कर सकते हैं, केवल उस डोमेन के तहत आवश्यक सेटिंग्स को पूरा करने वाले सभी पृष्ठ / फाइलें डाउनलोड की जाएंगी
ब्राउजिंग के लिए लिंक को ऑफलाइन लिंक में बदला जा सकता है
आपके पास टेम्प्लेट हैं जो आपको आपके लिए उपरोक्त सेटिंग्स चुनने देते हैं
हालांकि यह सॉफ्टवेयर मुक्त नहीं है - देखें कि क्या यह आपकी आवश्यकताओं के अनुरूप है, मूल्यांकन संस्करण का उपयोग करें।
मैं उन ऑनलाइन बफ़रिंग को संबोधित करूँगा जो ब्राउज़र उपयोग करते हैं ...
आमतौर पर अधिकांश ब्राउज़र एक ब्राउजिंग कैशे का उपयोग करते हैं ताकि आप किसी वेबसाइट से डाउनलोड की जाने वाली फाइलों को थोड़ी देर तक रोक कर रख सकें ताकि आपको बार-बार स्थिर चित्र और सामग्री डाउनलोड न करनी पड़े। यह कुछ परिस्थितियों में चीजों को काफी तेज कर सकता है। सामान्यतया, अधिकांश ब्राउज़र कैश एक निश्चित आकार तक सीमित होते हैं और जब यह उस सीमा को हिट करता है, तो यह कैश की सबसे पुरानी फाइलों को हटा देगा।
आईएसपी में कैशिंग सर्वर होते हैं जो ईएसपीएन और सीएनएन जैसी आमतौर पर एक्सेस की गई वेबसाइटों की प्रतियां रखते हैं। इससे उन्हें हर बार अपने नेटवर्क पर किसी के वहां जाने से इन साइटों को रोकने की परेशानी से बचा जाता है। यह आईएसपी को बाहरी साइटों के लिए डुप्लिकेट किए गए अनुरोधों की मात्रा में एक महत्वपूर्ण बचत की राशि दे सकता है।
मुझे ऑफलाइन एक्सप्लोरर पसंद है ।
यह एक शेयरवेयर है, लेकिन यह बहुत अच्छा और उपयोग करने में आसान है।
मैंने कई वर्षों में ऐसा नहीं किया है, लेकिन अभी भी कुछ उपयोगिताएं हैं। आप वेब स्नेक आज़माना चाह सकते हैं । मेरा मानना है कि मैंने सालों पहले इसका इस्तेमाल किया था। आपका नाम पढ़ते ही मुझे तुरंत नाम याद आ गया।
मैं स्टेसी से सहमत हूं। कृपया उनकी साइट को अंकित न करें। बहुत बुरा।
BackStreet ब्राउज़र की कोशिश करो ।
यह एक स्वतंत्र, शक्तिशाली ऑफ़लाइन ब्राउज़र है। एक हाई-स्पीड, मल्टी-थ्रेडिंग वेबसाइट डाउनलोड और देखने का कार्यक्रम। एक साथ कई सर्वर अनुरोध करने से, BackStreet Browser HTML, ग्राफ़िक्स, जावा Applets, साउंड और अन्य उपयोगकर्ता की निश्चित फ़ाइलों सहित पूरी वेबसाइट या किसी हिस्से का डाउनलोड कर सकता है, और आपके हार्ड ड्राइव की सभी फाइलों को उनके मूल प्रारूप में सहेजता है, या एक संकुचित ज़िप फ़ाइल के रूप में और ऑफ़लाइन देखें।
टेलीपोर्ट प्रो एक और मुफ्त समाधान है जो आपके लक्ष्य से किसी भी और सभी फ़ाइलों को कॉपी करेगा (इसमें एक भुगतान किया गया संस्करण भी है जो आपको सामग्री के अधिक पृष्ठ खींचने की अनुमति देगा)।
DownThemAll एक फ़ायरफ़ॉक्स ऐड-ऑन है जो एक क्लिक में किसी विशेष वेब पेज के लिए सभी सामग्री (उदाहरण के लिए ऑडियो या वीडियो फ़ाइलों) को डाउनलोड करेगा। यह पूरी साइट को डाउनलोड नहीं करता है, लेकिन यह उस तरह की बात हो सकती है जिस सवाल की तलाश थी।
Linux और OS X के लिए: मैंने पूरी वेबसाइटों को WARC फ़ाइलों को संग्रहीत करने के लिए ग्रैब-साइट लिखी । इन WARC फ़ाइलों को ब्राउज़ या निकाला जा सकता है । ग्रैब-साइट आपको नियमित अभिव्यक्ति का उपयोग करने के लिए किस URL को नियंत्रित करने देता है, और क्रॉल चलने पर इन्हें बदला जा सकता है। यह कबाड़ यूआरएल की अनदेखी के लिए चूक का एक व्यापक सेट के साथ भी आता है ।
क्रॉल की निगरानी के लिए एक वेब डैशबोर्ड है, साथ ही एक निश्चित आकार पर वीडियो सामग्री या प्रतिक्रियाओं को स्किप करने के लिए अतिरिक्त विकल्प भी हैं।
हालांकि इस संसाधन का उल्लेख पहले ही किया जा चुका था और कमांड लाइन इतनी सहज थी कि मुझे लगा कि यह उल्लेख योग्य है:
wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
आदरणीय FreeDownloadManager.org में यह सुविधा भी है।
नि: शुल्क डाउनलोड प्रबंधक दो रूपों में दो रूपों में होता है: साइट एक्सप्लोरर और साइट स्पाइडर :
साइट एक्सप्लोरर
साइट एक्सप्लोरर आपको एक वेब साइट की फ़ोल्डर संरचना को देखने और आसानी से आवश्यक फ़ाइलों या फ़ोल्डरों को डाउनलोड करने देता है।
HTML स्पाइडर
आप HTML स्पाइडर के साथ पूरे वेब पेज या पूरी वेब साइट डाउनलोड कर सकते हैं। उपकरण को केवल निर्दिष्ट एक्सटेंशन वाली फ़ाइलों को डाउनलोड करने के लिए समायोजित किया जा सकता है।
मुझे लगता है कि साइट एक्सप्लोरर यह देखने के लिए उपयोगी है कि पूरी साइट को डाउनलोड करने का प्रयास करने से पहले किन फ़ोल्डरों को शामिल करना / बाहर करना - विशेष रूप से तब जब साइट में एक संपूर्ण फ़ोरम छुपा हो जिसे आप उदाहरण के लिए डाउनलोड नहीं करना चाहते हैं।
डाउनलोड HTTracker यह वेबसाइटों को डाउनलोड करने के लिए बहुत आसान चरणों का पालन करेगा।
डाउनलोड लिंक: http://www.httrack.com/page/2/
वीडियो जो आपकी मदद कर सकता है: https://www.youtube.com/watch?v=7IHIGf6lcL4
मेरा मानना है कि Google क्रोम डेस्कटॉप उपकरणों पर ऐसा कर सकता है, बस ब्राउज़र मेनू पर जाएं और वेबपेज सहेजें पर क्लिक करें।
यह भी ध्यान दें कि जेब जैसी सेवाएं वास्तव में वेबसाइट को बचा नहीं सकती हैं, और इस प्रकार सड़ांध को जोड़ने के लिए अतिसंवेदनशील हैं।
अंतिम रूप से ध्यान दें कि किसी वेबसाइट की सामग्री को कॉपी करना कॉपीराइट पर उल्लंघन कर सकता है, यदि यह लागू होता है।