विशेष रूप से, मैं विभिन्न स्टैक एक्सचेंज साइटों पर अपने उपयोगकर्ता प्रोफ़ाइल से कुछ पृष्ठ डाउनलोड करने में सक्षम होना चाहूंगा। हालाँकि, मैं यह स्वचालित रूप से ( cron
नौकरी का उपयोग करके ) कमांड लाइन से और पार्स करने योग्य प्रारूप में करना चाहूंगा। मैं इसके लिए लिनक्स का उपयोग करना ज्यादा पसंद करता हूं, लेकिन यदि आवश्यक हो तो मैं मैक या विंडोज मशीन का उपयोग कर सकता हूं।
आदर्श रूप से, मैं पृष्ठों को लाने के लिए Wget या cURL जैसे टूल का उपयोग करना चाहूंगा । मैं नहीं जानता कि कैसे लॉग में पिछले पाने के लिए। मैंने उन सुझावों को देखा है जिनका उल्लेख है कि आप फ़ायरफ़ॉक्स के माध्यम से लॉग इन कर सकते हैं, प्रासंगिक कुकी को निर्यात कर सकते हैं और इसे अपने --load-cookies
विकल्प के माध्यम से Wget में आयात कर सकते हैं । उदाहरण के लिए यहाँ और यहाँ । हालांकि यह काम करता है अगर मैंने अभी लॉग इन किया है, तो यह थोड़ी देर के बाद नहीं होता है। मुझे लगता है क्योंकि आईडी टोकन को ताज़ा किया जाना है।
इसलिए, बस में लॉग इन करने के बाद एसयू और मेरे कुकीज़ का निर्यात मैं कर सकता हूं:
wget --load-cookies cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
हालांकि कुछ मिनटों के बाद, मुझे 404 त्रुटि मिली:
wget -O ~/stack/$(date +%s) --load-cookies ~/cookies.txt \
https://superuser.com/users/151431/terdon?tab=responses
--2013-08-06 04:04:14-- https://superuser.com/users/151431/terdon?tab=responses
Resolving superuser.com (superuser.com)... 198.252.206.16
Connecting to superuser.com (superuser.com)|198.252.206.16|:80... connected.
HTTP request sent, awaiting response... 404 Not Found
2013-08-06 04:04:15 ERROR 404: Not Found.
तो, मैं स्वचालित रूप से कमांड लाइन से एक OpenID सक्षम वेबसाइट में कैसे प्रवेश कर सकता हूं?
पुनश्च। मुझे लगता है कि यह वेब अनुप्रयोगों की तुलना में यहां बेहतर है क्योंकि मेरा प्रश्न वास्तव में कमांड लाइन पहलू के बारे में है न कि प्रश्न में वेब पेज का वास्तविक विवरण। मुझे लगता है कि सभी OpenID साइटों पर कोई भी समाधान लागू होगा ।