मैंने निम्नलिखित कमांड की कोशिश की:
$ wget -q --tries=10 --timeout=20 --spider http://google.com
( इस SO पोस्ट से । मैं अपने इंटरनेट कनेक्शन को bash में जांचना चाहता हूं।)
मुझे निम्नलिखित आउटपुट मिले:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://google.com/
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 302 Found
Location: http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA [following]
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:50-- http://www.google.de/?gfe_rd=cr&ei=k_IIVreaN-yH8Qfe1Yu4CA
Connecting to 127.0.0.1:3128... connected.
Proxy request sent, awaiting response... 200 OK
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.
ठीक लगता है, लेकिन sudo
मैं इसके साथ cmd चला रहा हूं:
Spider mode enabled. Check if remote file exists.
--2015-09-28 09:55:27-- http://google.com/
Resolving google.com (google.com)... failed: Name or service not known.
wget: unable to resolve host address ‘google.com’
मुझे एक स्क्रिप्ट में इस लाइन की आवश्यकता है, जिसे मैं कॉल करता हूं sudo
और इसलिए यह हमेशा विफल रहता है।
क्या कोई मुझे इसका कारण बता सकता है? मैं उसके आसपास कैसे काम कर सकता हूं?
wget
Google.com के खिलाफ एक बेतरतीब ढंग से निष्पादित करना यह जांचने का एक अच्छा तरीका नहीं लगता है कि एक इंटरनेट कनेक्शन काम कर रहा है: उदाहरण के लिए, आप एक ऐसे कनेक्शन पर हो सकते हैं जो Google से HTTP कनेक्शन की अनुमति देता है लेकिन उन चीजों को मना करता है जो आपकी स्क्रिप्ट वास्तव में करना चाहती है। ; या Google अपनी साइट पर पहुंच को रोक सकता है। आपके पास वास्तविक समस्या क्या है, जिसके लिए आपको लगता है कि sudo wget blah
एक संभावित समाधान है?