ウェブサイトがあり、そのウェブサイト内のすべてのページ/リンクをダウンロードしたい。wget -r
このURLでしたいです。この特定のディレクトリの「外部」へのリンクはないため、インターネット全体のダウンロードについて心配する必要はありません。
結局のところ、私が欲しいページはウェブサイトのパスワードで保護されたセクションの背後にあります。wgetを使用して手動でCookieネゴシエーションを行うこともできますが、ブラウザーから「ログイン」し、firefoxプラグインを使用してすべてを再帰的にダウンロードする方がはるかに簡単です。
これを可能にする拡張機能や何かがありますか?多くの拡張機能は、ページからメディア/画像を取得することに焦点を合わせていますが、すべてのコンテンツ(HTMLなど)に興味があります。
提案?
ありがとう!
編集
DownThemAllはクールな提案のようです。再帰的なダウンロードを実行できますか?同様に、ページ上のすべてのリンクをダウンロードしてから、それらの各ページに含まれるすべてのリンクをダウンロードしますか?基本的に、リンクをたどってディレクトリツリー全体をミラーリングするのですか?-r
オプションのようなwget
?