HTTP में वास्तव में निर्देशिकाओं की धारणा नहीं है। पहले तीन ( http://example.com/
) के अलावा अन्य स्लैश का कोई विशेष अर्थ नहीं है सिवाय ..
सापेक्ष URL में सम्मान के । इसलिए जब तक सर्वर एक विशेष प्रारूप का अनुसरण नहीं करता है, तब तक "निर्दिष्ट निर्देशिका में सभी फ़ाइलों को डाउनलोड करने" का कोई तरीका नहीं है।
यदि आप पूरी साइट को डाउनलोड करना चाहते हैं, तो आपका सबसे अच्छा शर्त मुख्य पृष्ठ के सभी लिंक को पुनरावृत्ति करना है। कर्ल यह नहीं कर सकता, लेकिन wget कर सकता है। यह काम करेगा यदि वेबसाइट बहुत अधिक गतिशील नहीं है (विशेष रूप से, wget उन लिंक को नहीं देखेगा जो जावास्क्रिप्ट कोड द्वारा निर्मित हैं)। के साथ शुरू करें wget -r http://example.com/
, और अधिक प्रासंगिक विकल्पों (पुनरावृत्ति की गहराई, बहिष्करण सूचियों, आदि) के लिए "मैनुअल पुनर्प्राप्ति विकल्प" और "पुनरावर्ती स्वीकार / अस्वीकार विकल्प" के तहत विकट मैनुअल में देखें।
यदि वेबसाइट स्वचालित डाउनलोड को ब्लॉक करने की कोशिश करती है, तो आपको उपयोगकर्ता एजेंट स्ट्रिंग ( -U Mozilla
) को बदलने की आवश्यकता हो सकती है , और उपेक्षा करने के लिए robots.txt
(एक खाली फ़ाइल बनाएं example.com/robots.txt
और -nc
विकल्प का उपयोग करें ताकि wget इसे सर्वर से डाउनलोड करने का प्रयास न करें)।