C:\blah>wget -r -l 1 -w 1 -t 1 -T 5 -nd -k -e "robots=off" http://en.wi
kipedia.org/wiki/List_of_inventors_killed_by_their_own_inventions
मैं इसे जल्दी से परीक्षण नहीं कर सकता, क्योंकि इसे पूरा करने में समय लगेगा, क्योंकि यह एक लिंक को दूसरी बार डाउनलोड करता है। अगर यह तेजी से चला तो वे आपको रोक सकते हैं। इसके अलावा, अगर कर -के तो बाद में चल सकता है और अगर आप बीच में ctrl-c करते हैं तो नहीं चल सकते हैं, लेकिन आप इसे अपना कोर्स चलाने दे सकते हैं या -k और -nd को बीच में रोक सकते हैं और देख सकते हैं कि यह कैसे चलता है ।
-r -l 1 & lt; --- बहुत महत्वपूर्ण है, यह बहुत कुछ है जो आपके शीर्षक के लिए लिंक का पालन करने, लिंक डाउनलोड करने के लिए कहता है। (इसलिए हां, अलग-अलग पथ लिंक सहित, लेकिन अगर आप विदेशी मेजबानों पर लिंक चाहते हैं तो आपको -H की भी आवश्यकता होगी)
-w 1 -t 1 -T 5 & lt; - so -w 1 to प्रतीक्षा 1 सेकंड प्रत्येक http अनुरोध के बीच अन्यथा विकिपीडिया सर्वर पागल हो सकता है और आपको या कुछ और ब्लॉक कर सकता है। के रूप में वे वास्तव में किसी को अपनी साइट को ऐसा लगता है कि नहीं चाहते हैं। -t 1 (यदि यह विफल रहता है तो एक बार लिंक को पुनः प्रयास करें) .. -T प्रतीक्षा करने के लिए कितना समय है अगर यह लिंक डाउनलोड नहीं कर सकता है। यदि यह एक डेड लिंक को हिट करता है तो आप नहीं चाहते कि यह 20 सेकंड तक प्रतीक्षा करें और इसे 20 बार पुनः प्रयास करें। या इसे डाउनलोड करने में जितना समय लगेगा, उससे बहुत अधिक डाउनलोड होना चाहिए। । -w 1 उन लोगों के लिए सबसे महत्वपूर्ण है, क्योंकि आप अपने सर्वर को डाउन करने के लिए किसी भी तरह के अस्थायी ब्लॉक को डाउनलोड करने से किसी भी तरह का अस्थायी लाभ प्राप्त नहीं करना चाहते हैं।
-e "रोबोट = ऑफ" & lt; --- यह महत्वपूर्ण है अन्यथा यह काम नहीं करेगा। यह पिछले विकिपीडिया को मकड़ियों को रोकने की कोशिश करता है।
-और & lt; - इतना जरूरी नहीं है .. यह सिर्फ डायरेक्टरीज़ को ध्वस्त करता है इसलिए फाइलों को एक डायरेक्टरी में रखें। आप वही हो सकते हैं या नहीं जो आप चाहते हैं। आप इसे छोड़ना चाह सकते हैं।
-k & lt; - लिंक को परिवर्तित करें ताकि उनके बजाय ऑनलाइन वेबपृष्ठों की ओर इशारा करते हुए वे डाउनलोड की गई स्थानीय फ़ाइलों को इंगित करें। समस्या यह है कि यह स्पष्ट रूप से डाउनलोड के बाद अपनी बात कर सकता है लिंक परिवर्तित नहीं करना चाहते हैं इसलिए मैं सिर्फ एक सा डाउनलोड नहीं कर सकता और वास्तव में इसका परीक्षण कर सकता हूं। और आप इसे मैन्युअल रूप से भी कर सकते हैं। खोज और बदलें के साथ .. अपने सूचकांक पृष्ठ पर List_of_inventors_killed_by_their_own_invent..mm
इतना कुछ भी जो कहता है /wiki/James_Douglas,_4th_Earl_of_Morton
आप बदल सकते हैं .. हालांकि यह शायद ठीक है .. आप बाहर छोड़ सकते हैं -और .. तो आपको "विकी" उपनिर्देशिका में उन सभी फ़ाइलों को मिलता है। या यदि जरूरत हो, तो आप फ़ाइलों को विकि उपनिर्देशिका में ले जा सकते हैं। या तो अपनी डायरेक्टरी ट्री को लिंक से मिलाएं या लिंक को अपनी डायरेक्टरी ट्री से मिलाएं।
मैं वेबसाइटों को डाउनलोड करते समय थोड़ा सा लड़खड़ा रहा हूं .. मैं मुद्दों में भागता हूं .. कभी-कभी मैं html अभिव्यक्ति का उपयोग करता हूं और नियमित रूप से अभिव्यक्ति का उपयोग करते हुए HTML में परिवर्तन करता हूं .. चीजों को स्वयं परिवर्तित करता हूं। यह फिजूल है। और वे कार्यक्रम मुफ्त नहीं हैं, लेकिन अन्य हैं। इससे पहले मैं नोटपैड खोज का उपयोग करता हूं और अलग-अलग फाइलों या कुछ मुफ्त प्रोग्राम पर प्रतिस्थापित कर सकता हूं जो फाइलों के एक बैच पर खोज और प्रतिस्थापन कर सकते हैं। और एमएस वर्ड कभी-कभी ब्लॉक को पूरी तरह से काट देता है .. यदि आवश्यक हो, तो html को संपादित करना। बारीकियों। लेकिन उस wget लाइन को वहां कुछ रास्ता मिलना चाहिए।
कभी-कभी मैं एक पृष्ठ से सभी लिंक को मिटा देता हूं, इसलिए मेरे पास लिंक की एक फ़ाइल है, फिर मैं wget -i fileoflinks करता हूं, फिर कोई मज़ेदार व्यवसाय नहीं है! हालांकि मैं भी -w 1 -t 1 -T 2 या ऐसा कुछ करता हूँ .. तो यह सर्वर को नीचे नहीं करता है। इसके अलावा उस पद्धति के साथ आपको कोई मज़ेदार व्यवसाय नहीं मिलता है।