回答:
wgetの出力を/ dev / null(またはWindowsではNUL)にリダイレクトできます。
wget http://www.example.com -O /dev/null
ファイルはディスクに書き込まれませんが、ダウンロードされます。
ファイルを保存したくない、とあなたはでページをダウンロードするの溶液を受け入れた場合/dev/null
、私はあなたが取得し、ページの内容を解析しないようにwgetを使用していると仮定します。
何らかのリモートアクションをトリガーすることが本当に必要な場合は、ページが存在することを確認するなどして、html本文ページをまったくダウンロードしない方が良いと思います。
遊ぶwget
などだけあなたが本当に必要なもの、すなわちHTTPヘッダー、リクエストのステータスを取得するためのオプション
ページを確認する必要があると仮定すると(つまり、返されるステータスは200です)、次のことができます。
wget --no-cache --spider http://your.server.tld/your/page.html
サーバーから返されたヘッダーを解析するには、次の手順を実行します。
wget --no-cache -S http://your.server.tld/your/page.html
プレイするその他のオプションについては、wgetのマニュアルページを参照してください。wgetの代替としても
参照してくださいlynx
。
--no-cache
manページでは、それが「リモートサーバーに適切な指示( 『プラグマ:キャッシュなし』)を送るリモートサービスからファイルを取得する」ためにはwgetの原因と言う
* NIXボックスおよび使用のwget
場合、ファイルへの書き込みをスキップすることをお勧めします。Ubuntu 10.04ボックスでwget -O /dev/null
、最初のダウンロード後にwgetがダウンロードを中止することに気付きました。
またwget -O real-file
、wgetがページ上の実際のリンクを忘れる原因にもなりました。index.html
各ページに存在することを主張します。そのようなページは常に存在するとは限らず、wgetは以前に見たリンクを記憶しません。
mkdir /dev/shm/1
cd /dev/shm/1
wget --recursive --relative --no-parent ...
-O file
オプションがないことに注意してください。wgetは、$ PWDディレクトリに書き込みます。この場合、RAMのみのtmpfsファイルシステムです。ここに書き込むと、ディスクチャーンが回避され(スワップスペースに依存)、すべてのリンクが追跡されます。これにより、Webサイト全体が正常にクロールされます。
その後、もちろん、
rm --recursive --force /dev/shm/1/*
ダウンロード後にファイルを削除する--delete-afterオプションを使用します。
編集:おっと、すでに答えられていることに気づいた。
/dev/null
動作しますか?