Webサイト全体をダウンロードするための無料のMac OS Xアプリケーション


26

Mac OS X 10.6にインストール可能なサイト全体をダウンロードするための無料のアプリケーションはありますか?

回答:


21

私はいつもこの名前、SiteSuckerが大好きです。

更新:バージョン2.5以降はもう無料ではありません。Webサイトから以前のバージョンをダウンロードできる場合があります。


私もこれが好きです。使いやすいインターフェースも。
トロギー09年

同じ!この事作品、素敵なGUIを持っていると....設定が簡単である
ブラッド・パークス

1
無料ではありません。App Storeでは、5ドルを求めています。
JohnK 14

2
@JohnKは2.5.x以降のポリシーを変更したように見えますが、以前のバージョンはまだsitesucker.us/mac/versions2.htmlから無料で入手できます。
グジェゴシアダムHankiewicz

1
- @GrzegorzAdamHankiewiczは右である、あなたは2.4.6、ここで自分のサイトから無料でダウンロードできますricks-apps.com/osx/sitesucker/archive/2.x/2.4.x/2.4.6/...
csilk

43

スイッチでwgetを使用できます--mirror

wget --mirror –w 2 –p --HTML-extension –-convert-links –P / home / user / sitecopy /

追加スイッチのマニュアルページはこちら

OSXの場合、を使用して簡単にインストールできますwget(および他のコマンドラインツール)brew

コマンドラインの使用が非常に難しい場合、CocoaWgetはOS XのGUIですwget。(バージョン2.7.0には2008年6月のwget 1.11.4が含まれていますが、正常に動作します。)


私は、使用wgetをしたくない、ソフトウェアの男を必要とする
Am1rr3zA

33
wgetはソフトウェアであり、最も柔軟です。
ジョンT

7
wgetはすばらしいソフトウェアです。ダウンロードしたい場合は、ワンストップショップに入れてください。
Phoshi

それではあなたの答えのためにTanx
Am1rr3zA 09年

1
Wgetはすばらしい。wget --page-requisites --adjust-extension --convert-links単一だが完全なページ(記事など)をダウンロードするときに使用します。
-ggustafsson

3

SiteSuukerは既に推奨されており、ほとんどのWebサイトで適切な仕事をしています。

また、DeepVacuumは便利な「プリセット」を備えた便利でシンプルなツールであることがわかりました。

以下にスクリーンショットを添付します。

-

「プリセット」を備えたシンプルなインターフェース


1
素晴らしいツール、必要なものだけ!
ハローワールド14年

それは本当にシンプルでとてもうまくいきます!
madx


1

http://epicware.com/webgrabber.html

私はこれをヒョウで使用しますが、ユキヒョウで動作するかどうかはわかりませんが、試してみる価値があります


1

pavukは断然最良のオプションです...これはコマンドラインですが、インストールディスクまたはダウンロードからインストールする場合はX-Windows GUIがあります。おそらく誰かがそれのためにAquaシェルを書くことができます。

pavukは、-mode syncまたは-mode mirrorオプションを使用すると、参照されている外部javascriptファイル内のリンクを見つけて、ローカルディストリビューションをポイントします。

os x portsプロジェクトから入手でき、ポートとタイプをインストールします

port install pavuk

たくさんのオプション(オプションの森)。


0

Mac用A1 Webサイトダウンロード

さまざまな一般的なサイトダウンロードタスクのプリセットと、詳細に構成したい人のための多くのオプションがあります。UI + CLIサポートが含まれています。

30日間のトライアルとして開始し、その後「無料モード」に変わります(500ページ未満の小規模なWebサイトに適しています)


-2

curlを使用します。これはデフォルトでOS Xにインストールされます。wgetは、少なくとも私のマシンにはありません(Leopard)。

タイピング:

curl http://www.thewebsite.com/ > dump.html

現在のフォルダー内のファイルdump.htmlにダウンロードします


主な問題は、ウェブサイト全体ではなくホームページをダウンロードすることです。
Phoshi

さて、manページを見てください
フレッド

2
最後に確認したところ、curl再帰的なダウンロードは行いません(つまり、ハイパーリンクをたどって他のWebページのようなリンクされたリソースをダウンロードすることはできません)。したがって、Webサイト全体を実際にミラーリングすることはできません。
ローレンスベラスケス

それでは、リンクを取得するための簡単なスクリプトを実行します。コマンドラインにアクセスしますか?それ以外の場合は、グラフィカルなフロントエンドを備えたツールを使用します。
フレッド

2
(そしてその名前 cURLです...ジョンTの編集は本当にあなたの答えを改善したと思います。)
アルジャン
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.