永続的な保存のために、簡単なページのコピーを私のHDにダウンロードしたいと思います。私は深い再帰的なgetを探しているのではなく、単一のページだけを探していますが、そのページによって読み込まれるすべてのリソースもダウンロードする必要があります。
期待する:
- index.html
- ロードされた画像
- ロードされたJSファイル
- ロードされたCSSファイル
- CSSファイルに読み込まれた画像
- ダウンロードされたコピーで動作するようにローカライズされたページリソースへのリンク(Web依存なし)
これを行うのに最適なwget構文またはその他のツールを見つけるのを手伝ってくれるかどうか知りたいです。私が試したツールは通常、CSSによる画像の読み込みに失敗するため、ローカルに読み込んだときにページが正しく表示されません。ありがとうございました!
正接ソリューション
FireFoxを使用してこれを行う方法を見つけました。デフォルトの保存は壊れており、「保存完了」と呼ばれるアドオンがあり、これで明らかにうまくいくことができます。ただし、FireFoxの現在のバージョンではサポートされていないため、ダウンロードできません。その理由は、このアドオン「Mozilla Archive Format」に組み込まれたためです。それをインストールし、[ファイル]> [名前を付けてページを保存...]を使用すると、基本的に古いアドオンである「Webページ、完了」という新しいオプションがあり、FireFoxが使用するストック実装を修正します(これはひどいです)。これはWGETソリューションではありませんが、実行可能なソリューションを提供します。
編集:これをやろうとしている将来この質問をフォローしている可能性のある人のための別のばかげた問題。アドオンを適切に動作させるには、[ツール]> [Mozillaアーカイブ形式]を選択し、(ひどい)デフォルト設定の[ページの忠実なスナップショットを撮る]を[スクリプトとソースを保持して保存完了]に変更してください。変更しないと、アドオンがすべて空になります。スクリプトファイルを置き換えて、「/ *スクリプトはスナップショットの保存によって削除されました* /」というテキストに置き換えます。