एक पूरी वेबसाइट डाउनलोड करने के लिए मुफ्त मैक ओएस एक्स आवेदन


26

क्या मैक ओएस एक्स 10.6 पर पूरी साइट को डाउनलोड करने के लिए कोई मुफ्त आवेदन है?

जवाबों:


21

मुझे हमेशा इस एक का नाम पसंद आया है: साइटसकर

अद्यतन : संस्करण 2.5 और ऊपर किसी भी अधिक मुक्त नहीं हैं। आप अभी भी उनकी वेबसाइट से पुराने संस्करण डाउनलोड कर सकते हैं।


मुझे यह भी पसंद है। इंटरफ़ेस का उपयोग करने के लिए सरल भी।
ट्रोगी

डिट्टो! यह काम करता है, एक अच्छा गुई है और कॉन्फ़िगर करना आसान है ....
ब्रैड पार्क्स

1
यह मुफ्त नहीं है। ऐप स्टोर पर, वे $ 5 पूछ रहे हैं।
जॉन सिप

2
@ जॉन को ऐसा लगता है कि उन्होंने 2.5.x और इसके बाद के संस्करण के लिए नीति बदल दी है, लेकिन पहले के संस्करण अभी भी sitesucker.us/mac/versions2.html से मुफ्त में उपलब्ध हैं ।
ग्रेजेगोरज एडम हंकीविज़

1
@GrzegorzAdamHankiewicz सही है, आप उनकी साइट से 2.4.6 मुफ्त डाउनलोड कर सकते हैं - ricks-apps.com/osx/sitesucker/archive/2.x/2.4.x/2.4.6-……
csilk

43

आप इसे स्विच के साथ wget का उपयोग कर सकते हैं --mirror

wget --mirror –w 2 –p --HTML-extension -convert-links -P / home / user / sitecopy /

यहां अतिरिक्त स्विच के लिए मैन पेज ।

OSX के लिए, आप आसानी से wget(और अन्य कमांड लाइन उपकरण) का उपयोग करके स्थापित कर सकते हैं brew

यदि कमांड लाइन का उपयोग करना बहुत कठिन है, तो CocoaWget एक OS X GUI है wget। (संस्करण 2.7.0 में जून 2008 से 1.11.4 wget शामिल है, लेकिन यह ठीक काम करता है।)


मुझे सॉफ्टवेयर मैन की आवश्यकता है, wget
Am1rr3zA

33
wget सॉफ्टवेयर है, और यह सबसे अधिक लचीला है।
जॉन टी

7
wget शानदार सॉफ्टवेयर है, यह किसी भी डाउनलोडिंग के लिए एक स्टॉप-शॉप है जिसे आप कल्पना कर सकते हैं।
फोसिह

ठीक है तो अपने जवाब के लिए Tanx
Am1rr3zA

1
Wget महान है। मैं wget --page-requisites --adjust-extension --convert-linksतब उपयोग करता हूं जब मैं एकल लेकिन पूर्ण पृष्ठ (लेख आदि) डाउनलोड करना चाहता हूं ।
ggustafsson 15

3

SiteSuuker की पहले ही सिफारिश की जा चुकी है और यह अधिकांश वेबसाइटों के लिए एक अच्छा काम करता है।

मैं कुछ उपयोगी "प्रीसेट्स" के साथ डीपवाकुम को एक आसान और सरल उपकरण मानता हूं ।

स्क्रीनशॉट नीचे संलग्न है।

-

"प्रीसेट" के साथ सरल इंटरफ़ेस


1
बहुत बढ़िया उपकरण, बस मुझे क्या चाहिए!
हैलो वर्ल्ड

यह वास्तव में सरल है और बहुत अच्छी तरह से काम करता है!
पागल


1

http://epicware.com/webgrabber.html

मैं तेंदुए पर इसका इस्तेमाल करता हूं, यकीन नहीं होता कि यह हिम तेंदुए पर काम करेगा, लेकिन एक कोशिश के लायक है


1

pavuk अब तक का सबसे अच्छा विकल्प है ... यह कमांड लाइन है, लेकिन यदि आप इसे इंस्टॉलेशन डिस्क या डाउनलोड से स्थापित करते हैं, तो एक X-Windows GUI है। शायद कोई इसके लिए एक्वा शेल लिख सकता था।

पावुक को बाहरी जावास्क्रिप्ट फ़ाइलों में लिंक भी मिलेंगे, जिन्हें संदर्भित किया जाता है और यदि आप -mode सिंक या -mode दर्पण विकल्पों का उपयोग करते हैं तो ये स्थानीय वितरण को इंगित करते हैं।

यह ओएस एक्स पोर्ट प्रोजेक्ट के माध्यम से उपलब्ध है, पोर्ट और टाइप स्थापित करें

port install pavuk

बहुत सारे विकल्प (विकल्पों का एक जंगल)।


0

A1 वेबसाइट मैक के लिए डाउनलोड करें

इसमें विभिन्न सामान्य साइट डाउनलोड कार्यों के लिए प्रीसेट हैं और जो लोग विस्तार से कॉन्फ़िगर करना चाहते हैं उनके लिए कई विकल्प हैं। जिसमें UI + CLI सपोर्ट शामिल है।

30 दिनों के परीक्षण के रूप में शुरू होता है, जिसके बाद "फ्री मोड" में बदल जाता है (अभी भी 500 पृष्ठों के तहत छोटी वेबसाइटों के लिए उपयुक्त है)


-2

कर्ल का उपयोग करें, यह ओएस एक्स में डिफ़ॉल्ट रूप से स्थापित है। कम से कम मेरी मशीन, (तेंदुआ) पर नहीं है।

लेखन:

curl http://www.thewebsite.com/ > dump.html

आपके वर्तमान फ़ोल्डर में फ़ाइल, डम्प.ऑर्ग को डाउनलोड करेगा


इसके साथ मुख्य समस्या यह है कि यह होमपेज डाउनलोड कर रहा है , न कि पूरी वेबसाइट।
फॉशी

ठीक है,
फ्रेड

2
अंतिम बार मैंने जाँच की, curlपुनरावर्ती डाउनलोड नहीं करता है (अर्थात, यह अन्य वेब पेजों की तरह जुड़े संसाधनों को डाउनलोड करने के लिए हाइपरलिंक्स का पालन नहीं कर सकता है)। इस प्रकार, आप वास्तव में इसके साथ एक पूरी वेबसाइट नहीं दिखा सकते हैं।
लॉरेंस वेलज़कज़

ठीक है, तो लिंक प्राप्त करने के लिए एक त्वरित स्क्रिप्ट करते हैं, हम कमांड लाइन लैंड राइट में हैं? अन्यथा, बस एक ग्राफिकल फ्रंट एंड वाले टूल का उपयोग करें।
फ्रेड

2
(और इसके नाम है cURL ... मुझे लगता है कि जॉन टी संपादित वास्तव में अपने जवाब में सुधार किया गया।)
अर्जन
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.