Firefoxの再帰ダウンロード( `wget -r`)と同等ですか?
ウェブサイトがあり、そのウェブサイト内のすべてのページ/リンクをダウンロードしたい。wget -rこのURLでしたいです。この特定のディレクトリの「外部」へのリンクはないため、インターネット全体のダウンロードについて心配する必要はありません。 結局のところ、私が欲しいページはウェブサイトのパスワードで保護されたセクションの背後にあります。wgetを使用して手動でCookieネゴシエーションを行うこともできますが、ブラウザーから「ログイン」し、firefoxプラグインを使用してすべてを再帰的にダウンロードする方がはるかに簡単です。 これを可能にする拡張機能や何かがありますか?多くの拡張機能は、ページからメディア/画像を取得することに焦点を合わせていますが、すべてのコンテンツ(HTMLなど)に興味があります。 提案? ありがとう! 編集 DownThemAllはクールな提案のようです。再帰的なダウンロードを実行できますか?同様に、ページ上のすべてのリンクをダウンロードしてから、それらの各ページに含まれるすべてのリンクをダウンロードしますか?基本的に、リンクをたどってディレクトリツリー全体をミラーリングするのですか?-rオプションのようなwget?