回答:
ここから例10を試してください:
wget --mirror -p --convert-links -P ./LOCAL-DIR WEBSITE-URL
–mirror
:ミラーリングに適したオプションをオンにします。
-p
:特定のHTMLページを適切に表示するために必要なすべてのファイルをダウンロードします。
--convert-links
:ダウンロード後、ドキュメント内のリンクをローカル表示用に変換します。
-P ./LOCAL-DIR
:指定したディレクトリにすべてのファイルとディレクトリを保存します。--wait=seconds
サイトにもっと親しみたい場合は、引数を使用することを検討してください。検索の間に指定された秒数だけ待機します。
サブドメイン、つまりサブサイトについては知りませんが、wgetを使用して完全なサイトを取得できます。見てみましょう。このスーパーユーザの質問を。-D domain1.com,domain2.com
単一のスクリプトで異なるドメインをダウンロードするために使用できると書かれています。このオプションを使用してサブドメインをダウンロードできると思います。-D site1.somesite.com,site2.somesite.com
私はBurpを使用しています。スパイダーツールはwgetよりもはるかにインテリジェントであり、必要に応じてセクションを回避するように構成できます。Burp Suite自体はテストに役立つ強力なツールセットですが、スパイダーツールは非常に効果的です。
Entire Website Commandをダウンロードできます。
wget -r -l 0 website
例:
wget -r -l 0 http://google.com