पूरा पृष्ठ डाउनलोड किए बिना HTTP स्थिति कैसे निर्धारित करें?


26

मैं उबंटू का उपयोग करके वेबसाइटों की HTTP स्थिति जानना चाहता हूं। मैंने उस उद्देश्य के लिए उपयोग curlऔर wgetआदेश दिया है। लेकिन समस्या यह है कि ये कमांड पूरा वेबसाइट पेज डाउनलोड करते हैं और फिर हेडर की खोज करते हैं और इसे स्क्रीन पर प्रदर्शित करते हैं। उदाहरण के लिए:

$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8

समान चीज़ Wgetकमांड के साथ होती है जहाँ पूरा पृष्ठ डाउनलोड हो रहा है और अनावश्यक रूप से मेरे बैंडविड्थ का उपभोग कर रहा है।

मैं जो खोज रहा हूं वह यह है: कैसे एचटीटीपी स्टेटस कोड प्राप्त किया जाए बिना किसी पेज को डाउनलोड किए बिना। ताकि मैं अपने बैंडविड्थ की खपत को बचा सकूं। मैंने कर्ल का उपयोग करने की कोशिश की थी, लेकिन यकीन नहीं है कि मैं स्थिति कोड प्राप्त करने के लिए अपने सिस्टम पर पूरा पृष्ठ या सिर्फ एक हेडर डाउनलोड कर रहा हूं।


"कर्ल का उपयोग करने की कोशिश की, लेकिन यकीन नहीं है कि मैं पूरा पृष्ठ या सिर्फ हेडर डाउनलोड कर रहा हूं" - curl -v( --verbose) विकल्प यह डिबग करने का एक आसान तरीका है कि कर्ल वास्तव में क्या भेज रहा है और प्राप्त कर रहा है।
बेनी चेर्नियाव्स्की-पास्किन

मुझे डर है कि मैं नीच हूं क्योंकि आपके पास पहले से ही सवाल में समाधान है।
मोनिका

@LightnessRacesinOrbit मुझे नहीं पता था कि प्रश्न मेरा उत्तर है या नहीं। अपनी उलझन को सुलझाने के लिए मुझे यहाँ मदद करनी थी। यदि आपको अभी भी लगता है कि मेरा प्रश्न गलत है .. मैं आपके निर्णय का स्वागत करता हूँ .. धन्यवाद
जाफर विल्सन


"ये कमांड पूरा वेबसाइट पेज डाउनलोड करते हैं" - नहीं, वे नहीं करते हैं
स्टॉप हार्मिंग मोनिका

जवाबों:


49

curl -Iकेवल HTTP हेडर प्राप्त करता है; यह पूरे पृष्ठ को डाउनलोड नहीं करता है। से man curl:

-I, --head
      (HTTP/FTP/FILE) Fetch the HTTP-header only! HTTP-servers feature
      the command HEAD which this uses to get nothing but  the  header
      of  a  document. When used on an FTP or FILE file, curl displays
      the file size and last modification time only.

एक अन्य विकल्प स्थापित lynxऔर उपयोग करना है lynx -head -dump

HEAD अनुरोध HTTP 1.1 प्रोटोकॉल ( RFC 2616 ) द्वारा निर्दिष्ट किया गया है :

9.4 HEAD

   The HEAD method is identical to GET except that the server MUST NOT
   return a message-body in the response. The metainformation contained
   in the HTTP headers in response to a HEAD request SHOULD be identical
   to the information sent in response to a GET request. This method can
   be used for obtaining metainformation about the entity implied by the
   request without transferring the entity-body itself. This method is
   often used for testing hypertext links for validity, accessibility,
   and recent modification.

2
क्या यह संभव है (मानक की सीमा के भीतर .. जाहिर है कि यह संभव है ) एक जीईटी की तुलना में एक अलग स्थिति कोड वापस करने के अनुरोध के लिए?
कुटलुमाइक

1
@KutuluMike: मांगी गई जानकारी प्रदान करने के लिए उत्तर का संपादन किया। RFC के शब्दों में, यह समान मेटानफॉर्मेशन प्रदान करता है।
22

@duskwuff: फिर एक HEAD अनुरोध
SHOULD

@AlexP मेरी गलती। कोई बात नहीं!
दशकफ

18

इसके साथ wget, आपको--spider कर्ल जैसे HEAD अनुरोध भेजने के लिए विकल्प का उपयोग करने की आवश्यकता है :

$ wget -S --spider https://google.com
Spider mode enabled. Check if remote file exists.
--2017-01-03 00:08:38--  https://google.com/
Resolving google.com (google.com)... 216.58.197.174
Connecting to google.com (google.com)|216.58.197.174|:443... connected.
HTTP request sent, awaiting response... 
  HTTP/1.1 302 Found
  Cache-Control: private
  Content-Type: text/html; charset=UTF-8
  Location: https://www.google.co.jp/?gfe_rd=cr&ei=...
  Content-Length: 262
  Date: Mon, 02 Jan 2017 15:08:38 GMT
  Alt-Svc: quic=":443"; ma=2592000; v="35,34"
Location: https://www.google.co.jp/?gfe_rd=cr&ei=... [following]
Spider mode enabled. Check if remote file exists.
--2017-01-03 00:08:38--  https://www.google.co.jp/?gfe_rd=cr&ei=...
Resolving www.google.co.jp (www.google.co.jp)... 210.139.253.109, 210.139.253.93, 210.139.253.123, ...
Connecting to www.google.co.jp (www.google.co.jp)|210.139.253.109|:443... connected.
HTTP request sent, awaiting response... 
  HTTP/1.1 200 OK
  Date: Mon, 02 Jan 2017 15:08:38 GMT
  Expires: -1
  Cache-Control: private, max-age=0
  Content-Type: text/html; charset=Shift_JIS
  P3P: CP="This is not a P3P policy! See https://www.google.com/support/accounts/answer/151657?hl=en for more info."
  Server: gws
  X-XSS-Protection: 1; mode=block
  X-Frame-Options: SAMEORIGIN
  Set-Cookie: NID=...; expires=Tue, 04-Jul-2017 15:08:38 GMT; path=/; domain=.google.co.jp; HttpOnly
  Alt-Svc: quic=":443"; ma=2592000; v="35,34"
  Transfer-Encoding: chunked
  Accept-Ranges: none
  Vary: Accept-Encoding
Length: unspecified [text/html]
Remote file exists and could contain further links,
but recursion is disabled -- not retrieving.

क्या आपको नहीं लगता कि मेरा मित्र उस विग को पूरा पृष्ठ लाएगा और फिर हेडर प्रदर्शित करेगा।
जाफर विल्सन

@JafferWilson आउटपुट की अंतिम कुछ पंक्तियाँ पढ़ता है।
मुरु
हमारी साइट का प्रयोग करके, आप स्वीकार करते हैं कि आपने हमारी Cookie Policy और निजता नीति को पढ़ और समझा लिया है।
Licensed under cc by-sa 3.0 with attribution required.