मैं एक ब्लॉग, जैसे www.example.com
, के साथ दर्पण की कोशिश कर रहा हूँ wget
।
मैं निम्नलिखित विकल्पों के साथ wget का उपयोग करता हूं (शेल चर सही तरीके से प्रतिस्थापित किए गए हैं):
wget -m -p -H -k -E -np \
-w 1 \
--random-wait \
--restrict-file-names=windows \
-P $folder \
-Q${quota}m \
-t 3 \
--referer=$url \
-U 'Mozilla/5.0 (X11; U; Linux i686; en-US; rv:1.8.1.6) Gecko/20070802 SeaMonkey/1.1.4' \
-e robots=off \
-D $domains
-- $url
ब्लॉग में अन्य डोमेन पर रहने वाले चित्र शामिल हैं।
भले ही मैंने -p
विकल्प निर्दिष्ट किया हो (लिंक की गई पृष्ठ परिसंपत्तियाँ डाउनलोड करें) जब तक मैं प्रत्येक -D
विकल्प में स्पष्ट रूप से निर्दिष्ट नहीं करता, तब तक ये चित्र डाउनलोड नहीं हो रहे हैं ।
अगर मैं -D
विकल्प को छोड़ देता हूं तो wget बाहर के हर लिंक का अनुसरण करेगा www.example.com
और पूरे इंटरनेट को डाउनलोड करेगा।
क्या यह संभव है wget
कि प्रत्येक लिंक का पालन करें www.example.com
और प्रत्येक पृष्ठ की आवश्यक संपत्ति को डाउनलोड करें, चाहे वे एक ही डोमेन पर रहते हों या मेरे बिना प्रत्येक डोमेन को स्पष्ट रूप से निर्दिष्ट करने के लिए नहीं हैं?
-D $domains
साथ ही दोनों को हटाने का प्रयास करें -H
। इसके बिना -H
अपने डोमेन के भीतर रहना चाहिए, लेकिन फिर भी डायरेक्ट पेज की संपत्ति को पुनः प्राप्त करें, तब भी जब वे एक अलग डोमेन पर हों।
wget -N -E -H -k -K -p
पहली बार उपयोग करना समाप्त कर दिया , और गायब लिपि से जुड़े चित्रों को लाने के लिए एक स्क्रिप्ट के साथ आया।