वेबसाइट की डायरेक्टरी में सभी फाइलें देखें?


10

क्या लिनक्स शेल से किसी वेबसाइट निर्देशिका में सभी फाइलों और निर्देशिकाओं को सूचीबद्ध करना संभव है?

कुछ इसी तरह:

ls -l some_directory

लेकिन some_directory के बजाय, यह होगा ls -l http://www.some_site.com/some_directory/। जाहिर है, बाद में काम नहीं होगा।

जवाबों:


10

मैं बस एक ही बात सोच रहा था। निम्नलिखित शायद सबसे कुशल समाधान नहीं है, लेकिन यह काम करने लगता है। यह स्थानीय रूप से वेबसर्वर की निर्देशिका संरचना को फिर से बनाता है। (मिला के माध्यम से पहले आदेश stackoverflow )

wget --spider -r --no-parent http://some.served.dir.ca/
ls -l some.served.dir.ca

`` --Spider` विकल्प के लिए +1। मुझे नहीं पता था कि एक ठग मैंने पहले wgetऔर curlपहले इस्तेमाल किया है ।
हेन्नेस

1

हाँ यह संभव है। कभी कभी।

जब आप एक वेबपेज पर ब्राउज़ करते हैं (कहो तो http://demo.domain.tld/testdir/index.html) यह आपके द्वारा निर्दिष्ट फ़ाइल को खोल देगा (इस मामले में `index.html)।

यदि आप एक फ़ाइल निर्दिष्ट नहीं करते हैं और एक डिफ़ॉल्ट मौजूद है (जैसे वेब-सर्वर को index.html, या index.php, ... दिखाने के लिए कॉन्फ़िगर किया गया है और आपने टाइप किया है http://demo.domain.tld/testdir/तो यह आपको सही फ़ाइल के साथ स्वचालित रूप से प्रस्तुत करेगा ।

यदि वह फ़ाइल मौजूद नहीं है तो वह अन्य चीजें कर सकती है, जैसे कि निर्देशिका सामग्री को सूचीबद्ध करना। साइट का निर्माण करते समय यह काफी उपयोगी है, हालांकि इसे सुरक्षा के दृष्टिकोण से भी नासमझ माना जाता है।

TL; DR: हाँ, कभी-कभी यह संभव है।

हालांकि अधिक व्यावहारिक दृष्टिकोण बस SSH, [s] एफ़टीपी या RDP वेब-सर्वर के लिए है और एक स्थानीय निर्देशिका लिस्टिंग आदेश जारी करना है।


धन्यवाद हेनेस। मेरी साइट नहीं है, इसलिए मुझे लगता है कि एसएसएच, आदि काम नहीं करेंगे, सही? मैं कुछ शेल कमांड की तरह सोच रहा था और ब्राउज़र का उपयोग नहीं कर रहा था।
user1032531

wgetआपको सभी लिंक की गई फाइलें मिलेंगी। मुझे लगता है कि आप फ़ाइलों को लाने के बजाय सूची के समान कुछ का उपयोग कर सकते हैं। हालाँकि यह अभी भी उन फ़ाइलों को याद करता है जो लिंक नहीं हैं।
हेन्नेस

0

पुनरावृत्ति के बिना

lftp -e "cls -1 > /tmp/list; exit" "https://cloud-images.ubuntu.com/xenial/current/"
cat /tmp/list

0

मुझे लगता है कि URL फ़ज़िंग वही है जो आप खोज रहे हैं। Pentest उपकरण एक आसान समाधान प्रदान करता है, लेकिन वे पूछते हैं कि आपके पास खोज करने के अधिकार हैं। शायद हैकिंग को कम करने के लिए। यहाँ एक ऑनलाइन समाधान है।

https://pentest-tools.com/website-vulnerability-scanning/discover-hidden-directories-and-files

काली लिनक्स डाउनलोड और स्थापित करें। हर कोई सोचता है कि यह हैकर्स के लिए है, लेकिन अगर आप एक पेशेवर वेबसाइट बिल्डर हैं तो मुझे लगता है कि यह अच्छा होगा। अनिवार्य रूप से, यह प्रश्न साइटमैप की तरह "कैसे-कैसे बनाएं" पूछता है, जो कि अधिकांश डोमेन किसी भी तरह प्रदान करते हैं।

वैकल्पिक रूप से, आर्क लिनक्स समाधान का प्रयास करें। https://blackarch.org/fuzzer.html

हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.