Webページの作業用ローカルコピーをダウンロードする[終了]
閉まっている。この質問はトピックから外れています。現在、回答を受け付けていません。 この質問を改善してみませんか? Stack Overflowのトピックとなるように質問を更新します。 8年前に閉鎖。 この質問を改善する Webページのローカルコピーをダウンロードして、CSS、画像、JavaScriptなどをすべて取得したいと考えています。 以前のディスカッション(例:hereとhere、どちらも2年以上前)では、2つの提案が一般的に提案されています:wget -pとhttrack。ただし、これらの提案はどちらも失敗します。これらのツールのいずれかを使用してタスクを完了するための支援をいただければ幸いです。選択肢も素敵です。 オプション1: wget -p wget -pWebページのすべての前提条件(css、画像、js)を正常にダウンロードします。ただし、ローカルコピーをWebブラウザーにロードすると、前提条件へのパスがWeb上のバージョンから変更されていないため、ページは前提条件をロードできません。 例えば: ページのhtmlで、<link rel="stylesheet href="https://stackoverflow.com/stylesheets/foo.css" />の新しい相対パスを指すように修正する必要がありますfoo.css cssファイルでbackground-image: url(/images/bar.png)は、同様に調整する必要があります。 wget -pパスが正しくなるように変更する方法はありますか? オプション2:httrack httrackWebサイト全体をミラーリングするための優れたツールのように見えますが、それを使用して単一のページのローカルコピーを作成する方法はわかりません。httrackフォーラムでは、このトピック(例:ここ)について多くの議論がありますが、防弾ソリューションを持っている人はいません。 オプション3:別のツール? 一部の人々は有料ツールを提案しましたが、私はそこに無料のソリューションがないとは信じられません。