Ubuntuを使用しているWebサイトのHTTPステータスを知りたい。私はそのためにコマンドを使用curl
しwget
ました。しかし問題は、これらのコマンドが完全なWebサイトページをダウンロードし、ヘッダーを検索して画面に表示することです。例えば:
$ curl -I trafficinviter.com
HTTP/1.1 200 OK
Date: Mon, 02 Jan 2017 14:13:14 GMT
Server: Apache
X-Pingback: http://trafficinviter.com/xmlrpc.php
Link: <http://trafficinviter.com/>; rel=shortlink
Set-Cookie: wpfront-notification-bar-landingpage=1
Content-Type: text/html; charset=UTF-8
同じことが、Wget
ページ全体がダウンロードされ、帯域幅を不必要に消費しているコマンドでも発生します。
私が探しているのは、帯域幅の消費を節約できるように、実際にページをダウンロードせずにHTTPステータスコードを取得する方法です。curlを使用してみましたが、ステータスコードを取得するために完全なページをダウンロードするのか、システムにヘッダーのみをダウンロードするのかはわかりません。
私はあなたが既にその問題の解決策を持っているので、私はダウン投票しているのではないかと心配しています。
—
モニカとの軽さのレース
@LightnessRacesinOrbit質問が私の答えかどうかわからなかった。私は混乱を解決するためにここにいました。それでも私の質問が間違っていることに気付いた場合..私はあなたのダウン投票の決定を歓迎します..ありがとう
—
ジャファーウィルソン
いいえ、そうではない- 「これらのコマンドは、完全なウェブサイトのページをダウンロード」
—
ストップハニングモニカ
curl -v
(--verbose
)オプションは、curlが実際に送受信しているものをデバッグする便利な方法です。