ブラックリストが原因でwgetがロードしないことを決定


1

Webサイトの完全なコピーを作成しようとしています。例えば、

http://vfilesarchive.bgmod.com/files/

私は走っている

wget -r -level=inf -R "index.html*" --debug http://vfilesarchive.bgmod.com/files/

そして、例えば、取得

Deciding whether to enqueue "http://vfilesarchive.bgmod.com/files/Half-Life%D0%92%D0%86/".
Already on the black list.
Decided NOT to load it.

何が起こっている?wget「ブラックリスト」とはどういう意味ですか、そこにあるものの一部のみをダウンロードするのはなぜですか?また、Webサイト全体を取得するにはどうすればよいですか?

wgetのバージョンは

GNU Wget 1.20 built on mingw32

(Windows 10 x64で実行)。

PS私はこれを何とか解決できたと思う

wget -m --restrict-file-names=nocontrol --no-iri -R "index.html*" <target url>

URLの特殊な文字のためにファイル名がわずかに損なわれていますが。より良い解決策はありますか?


スーパーユーザー、および問題を解決するための栄誉へようこそ。このサイトのQ&A形式は、単なる質問である質問と、回答の投稿にあるソリューションに依存しています。明確化のため、質問は保留になりました。ソリューションを回答に移動してください(独自の質問に回答できます)。質問を投稿してから2日後、そこにあるチェックマークをクリックして自分の回答を受け入れることができます。これは、問題が解決されたことを示します。
fixer1234

@ fixer1234:上記のコメントを投稿したとき、私は質問をより広範な「なぜ?」/「それはどういう意味ですか?」クエリに編集する過程にありました。
スコット

回答:


0

私はこれを何とか解決できたと思う

wget -m --restrict-file-names=nocontrol --no-iri -R "index.html*" <target url>

URLの特殊な文字のためにファイル名がわずかに損なわれていますが。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.