Webサイトからすべてのページをダウンロードするにはどうすればよいですか?
どのプラットフォームでも問題ありません。
Webサイトからすべてのページをダウンロードするにはどうすればよいですか?
どのプラットフォームでも問題ありません。
回答:
HTTRACKは、サイト全体のコンテンツをコピーするチャンピオンのように機能します。このツールは、アクティブなコードコンテンツを含むWebサイトをオフラインで動作させるために必要な要素を取得することもできます。オフラインで複製できるものには驚かされます。
このプログラムは、必要なすべてを行います。
ハッピーハンティング!
Wgetは、この種のタスクのための古典的なコマンドラインツールです。ほとんどのUnix / Linuxシステムに付属しており、Windowsでも入手できます。Macでは、Homebrewが最も簡単にインストールできます(brew install wget
)。
あなたは次のようなことをするでしょう:
wget -r --no-parent http://site.com/songs/
wgetを使用します。
wget -m -p -E -k www.example.com
オプションの説明:
-m, --mirror Turns on recursion and time-stamping, sets infinite
recursion depth, and keeps FTP directory listings.
-p, --page-requisites Get all images, etc. needed to display HTML page.
-E, --adjust-extension Save HTML/CSS files with .html/.css extensions.
-k, --convert-links Make links in downloaded HTML point to local files.
--mirror
はあまり自明ではないと思いますが、マニュアルページから:このオプションは再帰とタイムスタンプをオンにし、無限の再帰の深さを設定し、FTPディレクトリのリストを保持します。現在は-r -Nと同等です- l inf --no-remove-listing ")
wget --mirror -p --html-extension --convert-links www.example.com
を使ってみました、それはちょうどインデックスをダウンロードしました。-r
サイト全体をダウンロードする必要があると思います。
-w seconds
(要求、または間seccondsの数を待つために--limit-rate=amount
使用する最大帯域幅を指定するには、しばらくのダウンロード
Firefoxの拡張機能であるScrapBookをご覧ください。それは持っているの深いキャプチャモードを。
Internet Download Managerには、多くのオプションを備えたSite Grabberユーティリティがあります。これにより、必要なWebサイトを希望どおりに完全にダウンロードできます。
ダウンロードするページ/ファイルのサイズに制限を設定できます
訪問する支店サイトの数を設定できます
スクリプト/ポップアップ/複製の動作を変更できます
ドメインを指定できます。そのドメインの下でのみ、必要な設定を満たすすべてのページ/ファイルがダウンロードされます
リンクは、閲覧のためにオフラインリンクに変換できます。
上記の設定を選択できるテンプレートがあります
ただし、このソフトウェアは無料ではありません。ニーズに合っているかどうかを確認するには、評価版を使用してください。
ブラウザが使用するオンラインバッファリングに対処します...
通常、ほとんどのブラウザはブラウジングキャッシュを使用して、ウェブサイトからダウンロードしたファイルを少しの間保持するため、静的な画像やコンテンツを何度もダウンロードする必要はありません。これにより、状況によっては速度が大幅に向上します。一般的に、ほとんどのブラウザキャッシュは固定サイズに制限されており、その制限に達すると、キャッシュ内の最も古いファイルが削除されます。
ISPは、ESPNやCNNなどの一般的にアクセスされるWebサイトのコピーを保持するキャッシングサーバーを持つ傾向があります。これにより、ネットワーク上の誰かがそこに行くたびにこれらのサイトにアクセスする手間が省けます。これにより、ISPへの外部サイトへの重複したリクエストの量を大幅に節約できます。
オフラインエクスプローラーが好きです。
これはシェアウェアですが、非常に優れた使いやすいツールです。
私はこれを長年行っていませんが、まだいくつかのユーティリティがあります。Web Snakeを試してみてください。何年も前に使ったと思います。あなたの質問を読んだとき、私はすぐにその名前を思い出しました。
Stecyに同意します。サイトを叩かないでください。ひどい。
BackStreet Browserをお試しください。
無料の強力なオフラインブラウザです。高速なマルチスレッドWebサイトのダウンロードおよび表示プログラム。複数のサーバーリクエストを同時に行うことにより、BackStreet BrowserはWebサイト全体またはHTML、グラフィック、Javaアプレット、サウンド、その他のユーザー定義可能なファイルを含むサイトの一部をすばやくダウンロードし、すべてのファイルをネイティブ形式でハードドライブに保存します。または、圧縮されたZIPファイルとして、オフラインで表示します。
Teleport Proは、ターゲットが何であれ、すべてのファイルをコピーダウンする別の無料のソリューションです(また、コンテンツのページをさらに取得できる有料版もあります)。
DownThemAllは、1回のクリックで特定のWebページのすべてのコンテンツ(オーディオファイルやビデオファイルなど)をダウンロードするFirefoxアドオンです。これはサイト全体をダウンロードするわけではありませんが、これは質問が探していたようなものかもしれません。
wgetについては既に言及しましたが、このリソースとコマンドラインは非常にシームレスであったため、言及するに値すると思いました。
wget -P /path/to/destination/directory/ -mpck --user-agent="" -e robots=off --wait 1 -E https://www.example.com/
由緒あるFreeDownloadManager.orgにもこの機能があります。
無料ダウンロードマネージャーには、Site ExplorerとSite Spiderの 2つの形式の2つの形式があります。
サイトエクスプローラー
サイトエクスプローラーを使用すると、Webサイトのフォルダー構造を表示し、必要なファイルまたはフォルダーを簡単にダウンロードできます。
HTML Spider
Webページ全体またはWebサイト全体をHTML Spiderでダウンロードできます。このツールは、指定された拡張子を持つファイルのみをダウンロードするように調整できます。
Site Explorerは、サイト全体をダウンロードしようとする前に、どのフォルダーを含める/除外するかを確認するのに役立ちます。特に、ダウンロードしたくないフォーラム全体がサイトに隠れている場合などです。
HTTrackerをダウンロードすると、ウェブサイトが非常に簡単な手順でダウンロードされます。
ダウンロードリンク:http : //www.httrack.com/page/2/
Google Chromeはデスクトップデバイスでこれを行うことができると思います。ブラウザメニューに移動して[Webページを保存]をクリックするだけです。
また、pocketのようなサービスは実際にWebサイトを保存しない可能性があるため、リンクが腐敗しやすいことに注意してください。
最後に、ウェブサイトのコンテンツをコピーすると、該当する場合、著作権を侵害する可能性があることに注意してください。