सफारी में एक वेबसाइट से एक बार में सभी लिंक की गई फ़ाइलों को डाउनलोड करें


8

मैंने अपने सर्वर के लिए अपने सहकर्मियों के साथ फाइलें साझा करने के लिए एक वेब फ्रंटएंड बनाया है। वे वहां चित्र और एनीमेशन-वीडियो अपलोड कर सकते हैं।

अब, अगर किसी सहकर्मी ने कई फाइलें अपलोड की हैं, तो उन सभी को एक साथ डाउनलोड करना अच्छा होगा।

इसलिए मेरे पास एक वेबपेज है, जिसमें 20 लिंक दिए गए हैं। ये सभी फाइलों को दूसरे फोल्डर से लिंक कर रहे हैं।

क्या कोई प्लग इन या कुछ भी क्लिक करना है जो लिंक का अनुसरण करता है   और फ़ाइलें डाउनलोड करता है?

जवाबों:


8

मुझे यह सॉफ़्टवेयर अभी अपने उपयोग के लिए मिला है और मुझे आपका प्रश्न याद है। यही मैंने पाया है, शायद यही आपकी मदद कर सकता है:

Folx

फोल्क्स मैक ओएस एक्स के लिए एक सच्चे मैक-स्टाइल इंटरफ़ेस के लिए एक मुफ्त डाउनलोड प्रबंधक है। यह सुविधाजनक डाउनलोड प्रबंधन, लचीली सेटिंग्स आदि प्रदान करता है। फोलक्स में डाउनलोड की गई सामग्री को छाँटने और रखने की एक अनूठी प्रणाली है।

enter image description here


iGetter

साइट एक्सप्लोरर संपूर्ण वेब या एफ़टीपी साइटों की खोज की अनुमति देता है, इसलिए   आप आसानी से उन फ़ाइलों को खोज और डाउनलोड कर सकते हैं जिनमें आपकी रुचि है   HTTP, HTTPS या FTP साइट का पता लगाने के लिए साइट एक्सप्लोरर समूह आइटम चुनें   और एक साइट सेट करने के लिए प्रासंगिक मेनू फ़ंक्शन "साइट URL दर्ज करें" चुनें   यूआरएल। जब आप उस फ़ाइल तक पहुँचते हैं जिसे आप डबल क्लिक करना चाहते हैं   यह या संदर्भ मेनू फ़ंक्शन "कतार में जोड़ें" चुनें और यह होगा   डाउनलोड के लिए कतार में दिखाई दें। यदि आप प्रोसेसिंग रद्द करना चाहते हैं   बस टूलबार पर "रोकें" बटन को धक्का दें। साइट एक्सप्लोरर विश्लेषण करता है   सभी उपलब्ध लिंक के लिए HTML पेज भी जावास्क्रिप्ट में देख रहे हैं   फ़ंक्शंस, इसलिए यह वेब पेज की सामग्री की पूरी सूची दिखाएगा।

enter image description here enter image description here


और जब मैं आपके प्रश्न को खोज रहा था तो मुझे यह प्रश्न मिला है कि कौन मदद कर सकता है:

मैं वेब साइट से सभी एमपी 3 फाइलें कैसे डाउनलोड कर सकता हूं?

SiteSucker एक महान (मुक्त) अनुप्रयोग है! यह आपको किसी साइट से फ़ोल्डर्स डाउनलोड करने की अनुमति देगा। तो, बस अपने URL में प्रवेश करें और "डाउनलोड" पर क्लिक करें

sitesucker image

SiteSucker एक Macintosh एप्लिकेशन है जो इंटरनेट से वेब साइटों को स्वचालित रूप से डाउनलोड करता है। यह साइट के वेब पेज, इमेज, बैकग्राउंड, मूवी और अन्य फाइलों को आपकी स्थानीय हार्ड ड्राइव में साइट की डायरेक्टरी स्ट्रक्चर को डुप्लिकेट करके एसिंक्रोनस रूप से कॉपी करता है। बस एक URL दर्ज करें (यूनिफ़ॉर्म रिसोर्स लोकेटर), प्रेस रिटर्न और साइटसकर एक संपूर्ण वेब साइट डाउनलोड कर सकते हैं।


संपादित करें: folx जोड़ा गया
StrawHara

फॉक्स वास्तव में अच्छा काम करता है! इसका एक भुगतान किया गया संस्करण है, लेकिन मुफ्त में ओपी की जरूरत की सभी विशेषताएं हैं। मैं सिर्फ एक ही पृष्ठ से पीडीएफ फाइलों का एक गुच्छा डाउनलोड करने के लिए इस्तेमाल किया है - मैक पूरी तरह से काम किया!
iled

2

यहाँ एक और विकल्प है, जिसमें से एक के समान है Foxl

शटल डाउनलोड करें macOS के लिए एक सरल और हल्का डाउनलोड प्रबंधक है। यह एक स्टैंड-अलोन या ब्राउज़र एक्सटेंशन के रूप में काम करता है। यह इसके साथ आता है सफारी और क्रोम के लिए प्लगइन्स

डाउनलोड शटल एक तेजी से तेजी से डाउनलोड त्वरक और प्रबंधक है, और यह मुफ़्त है! डाउनलोड शटल के माध्यम से किए गए सभी डाउनलोड बहु-खंडित होते हैं, अर्थात, प्रत्येक फ़ाइल कई छोटे भागों में विभाजित होती है जो एक साथ डाउनलोड की जा रही हैं। यह सुनिश्चित करता है कि आपके बैंडविड्थ को अधिकतम करने के दौरान आपके द्वारा अनुभव की जाने वाली गति बहुत तेज़ है।

shuttle

यह है मुक्त । मुझे फॉक्स की तुलना में इसका उपयोग करना अधिक आसान लगता है। जब फॉक्सएल के मुफ्त संस्करण की तुलना की जाती है, तो इसमें विज्ञापन या पॉपअप न होने का भी फायदा होता है जो आपको पूर्ण संस्करण खरीदने के लिए कहते हैं।

इसे 2017 तक अपडेट (ऐप्स और एक्सटेंशन) किया जा रहा है।

MacOS 10.12.5 और Safari 10.1.1 पर परीक्षण किया गया।


1

क्रोम / फ़ायरफ़ॉक्स ब्राउज़र उत्तर। क्रोम / फ़ायरफ़ॉक्स उपयोग कर सकते हैं एचटीएमएल 5 डाउनलोड गुण

जहां तक ​​मुझे पता है कि सफारी अभी तक इसका समर्थन नहीं करती है।

चूंकि आप वेब पेज बना रहे हैं। आप जोड़ सकते हैं डाउनलोड लिंक की विशेषता और उन्हें एक वर्ग का नाम भी दें जो आपको उन्हें खोजने में मदद करेगा।

फिर आप एक बटन का उपयोग करते हैं जो एक जावास्क्रिप्ट फ़ंक्शन चलाता है जो उन लिंक पर क्लिक करके अनुकरण करेगा जो उपयोग करते हैं डाउनलोड फ़ाइलों को खोलने के बजाय डाउनलोड करने के लिए मजबूर करने की विशेषता।

उदाहरण।

<!DOCTYPE html>
<html>
  <head>

    <title>test</title>

     <script>

     function downloadURLS() {

         var links = document.getElementsByClassName("downloadLnk");
         for(var i=0; i<links.length; i++) {

             links[i].click();
         }

     }


         </script>

  </head>
  <body>

     <p>
<!--     add the download attribute, and add the class name downloadLnk -->
<!--The download attribute will work in Chrome, but as of yet not Safari-->
     <a class="downloadLnk" href="subdir/1.jpeg"  download > image link</a>
     </a>
     </p>

     <p>
     <a class="downloadLnk" href="subdir/2.jpeg"  download > image link</a>
     </a>
     </p>

     <p>
     <a class="downloadLnk" href="subdir/3.jpeg"  download > image link</a>
     </a>
     </p>

     <div>
         <button onclick="downloadURLS()">download all</button>

     </div>

  </body>
</html>

यह भी नहीं कि चित्र एक उप निर्देशिका में हैं।

वर्किंग उदाहरण पृष्ठ


1

कमांड लाइन टूल का उपयोग करें wget इसके लिए। अगर आपके पास नहीं है wget स्थापित, निर्देशों का उपयोग करके इसे स्थापित करें यहाँ

एक url से सभी लिंक की गई फ़ाइलों को डाउनलोड करने के लिए, जैसे कमांड चलाएँ

wget --recursive --no-clobber --no-parent www.example.com/page/

--recursive विकल्प बताता है wget लिंक का पालन करने के लिए। --no-clobber इसका मतलब है कि केवल प्रत्येक लिंक की गई फ़ाइल को एक बार डाउनलोड करें, और --no-parent रोकता है wget निम्नलिखित लिंक से जो मूल निर्देशिका तक ले जाते हैं - आम तौर पर वह नहीं जो आप चाहते हैं।

अधिक जानकारी में उपलब्ध है डॉक्स

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.