Webサイトの完全なコピーを作成しようとしています。例えば、
http://vfilesarchive.bgmod.com/files/
私は走っている
wget -r -level=inf -R "index.html*" --debug http://vfilesarchive.bgmod.com/files/
そして、例えば、取得
Deciding whether to enqueue "http://vfilesarchive.bgmod.com/files/Half-Life%D0%92%D0%86/".
Already on the black list.
Decided NOT to load it.
何が起こっている?wget
「ブラックリスト」とはどういう意味ですか、そこにあるものの一部のみをダウンロードするのはなぜですか?また、Webサイト全体を取得するにはどうすればよいですか?
wgetのバージョンは
GNU Wget 1.20 built on mingw32
(Windows 10 x64で実行)。
PS私はこれを何とか解決できたと思う
wget -m --restrict-file-names=nocontrol --no-iri -R "index.html*" <target url>
URLの特殊な文字のためにファイル名がわずかに損なわれていますが。より良い解決策はありますか?
スーパーユーザー、および問題を解決するための栄誉へようこそ。このサイトのQ&A形式は、単なる質問である質問と、回答の投稿にあるソリューションに依存しています。明確化のため、質問は保留になりました。ソリューションを回答に移動してください(独自の質問に回答できます)。質問を投稿してから2日後、そこにあるチェックマークをクリックして自分の回答を受け入れることができます。これは、問題が解決されたことを示します。
—
fixer1234
@ fixer1234:上記のコメントを投稿したとき、私は質問をより広範な「なぜ?」/「それはどういう意味ですか?」クエリに編集する過程にありました。
—
スコット