タグ付けされた質問 「wget」

GNU Wget(または単にWget、以前はGeturl)は、Webサーバーからコンテンツを取得するコンピュータープログラムであり、GNUプロジェクトの一部です。その名前は、World Wide Web and getに由来しています。HTTP、HTTPS、およびFTPプロトコルを介したダウンロードをサポートしています。

4
wgetがハングしているのはなぜですか?
サーバーの1つから特定の1つのURLにwgetすると、タイムアウトが発生し続けます。このボックスの他のURLはすべて正常に機能します。このURLは、私が持っている他のどのボックスでも問題なく機能します。出力は次のとおりです。 wget -T 10 http://www.fcc-fac.ca --2011-07-14 14:44:29-- http://www.fcc-fac.ca/ Resolving www.fcc-fac.ca... 65.87.238.35, 207.195.108.140 Connecting to www.fcc-fac.ca|65.87.238.35|:80... failed: Connection timed out. Connecting to www.fcc-fac.ca|207.195.108.140|:80... failed: Connection timed out 何が間違っているのか、どのようにトラブルシューティングを行うことができますか?Ubuntu 11.04(GNU / Linux 2.6.38-8-server x86_64)を使用しています 事前にどうもありがとうございました、私のnoobish無知を許してください:) ping、telnet、nc www.fcc-fac.ca 80-すべてハングします。ただし、ホストの一部のみがping可能ですが、簡単にwget'ableである他のいくつかのURL 。 tracerouteからはあまりわかりません。 7 rx0nr-access-communications.wp.bigpipeinc.com (66.244.208.10) 148.834 ms 149.018 ms 148.940 ms 8 sw-1-research.accesscomm.ca (24.72.3.9) …
12 ubuntu  wget 

2
wgetの使用中に特定のディレクトリを除外する方法は?
いくつかのソースコードが含まれているFTPからディレクトリをダウンロードしたいのですが。最初に、私はこれをしました: wget -r ftp://path/to/src 残念ながら、ディレクトリ自体はSVNチェックアウトの結果であるので、.svnディレクトリがたくさんあり、それらをクロールするのにより長い時間がかかります。それらの.svnディレクトリを除外することは可能ですか?
12 wget  exclude 

5
WGETはホストを解決できません
Debian 5.0を実行している同じサブネット上に2台のマシンがあります。同じDNS(/etc/resolv.conf)を使用し、同じゲートウェイにルーティングし(#route)、同じiptables設定(#iptables -L)を使用します。IPアドレスとホスト名の両方に対して、両方からpingを実行できます。#host www.google.comを実行すると、両方で同じ結果が得られます。しかし、問題は、それらの1つで、wgetまたはcurlできないことです。 そのため、マシン1ではすべて問題ありませんが、マシン2(マシン1と同じ設定)ではwgetまたはcurlできません。 私が得るエラーは: # wget google.com --2009-10-20 16:38:36-- http://google.com/ Resolving google.com... failed: Name or service not known. wget: unable to resolve host address `google.com' ただし、マシン1では、wgetまたはcurlを実行しても問題はありません。 # wget google.com --2009-10-20 16:43:55-- http://google.com/ Resolving google.com... 74.125.53.100, 74.125.45.100, 74.125.67.100 Connecting to google.com|74.125.53.100|:80... connected. HTTP request sent, awaiting response... 301 Moved …

3
CSSイメージなどではなく、ページのみをwgetにダウンロードさせるにはどうすればよいですか?
wgetを使用してウェブサイト全体をダウンロードしたいのですが、画像、動画などをダウンロードしたくありません。 私は試した wget -bqre robots=off -A.html example.com –user-agent=”Mozilla/5.0 (Windows; U; Windows NT 5.1; en-US; rv:1.8.1.6) Gecko/20070725 Firefox/2.0.0.6″ しかし、そうすると.phpファイルはダウンロードされず、静的な.htmlファイルがダウンロードされるだけです。 wgetを使用したこの問題の解決策はありますか?
10 linux  wget 


3
これにwgetをインストールするには?
私はダウンロードしましたVMWareの(Ubuntuの9.10)のためRubyStack 2.0.3が、私はそれで何かをダウンロードすることはできません!すべての基本的なユーティリティが見つからない/ねじ込まれているようです: bitnami@linux:/var/tmp$ wget -bash: wget: command not found bitnami@linux:/var/tmp$ curl curl: error while loading shared libraries: libcurl.so.4: cannot open shared obj ect file: No such file or directory bitnami@linux:/var/tmp$ man wget -bash: man: command not found bitnami@linux:/var/tmp$ sudo apt-get install wget [sudo] password for bitnami: Reading package lists… Done …
10 ubuntu-9.10  wget 

6
wget再帰ダウンロード、ただしすべてのリンクをたどりたくない
wgetを使用してWebサイトをミラーリングしようとしていますが、大量のファイルをダウンロードしたく--rejectないので、すべてのファイルを保存しないようにwgetのオプションを使用しています。ただし、wgetは引き続きすべてのファイルをダウンロードし、拒否オプションと一致する場合は後でファイルを削除します。 シェルのワイルドカードと一致する場合に、特定のリンクをたどらないようにwgetに指示する方法はありますか?wgetがこれを実行できない場合、これを実行できる他の一般的なLinuxコマンドはありますか?

2
wgetの進行状況がどうなったのか:メガはもうそれを切りませんか?
大きなファイルをキューにダウンロードするスクリプトがあります。まともなログがあれば、本当に感謝しています。-oor -aオプションの指定は明らかにそのために特別に作られていますが、現時点では、この「非常に大きなファイル」を書いている時点では、マンページに記載されているように、サイズが50mではなくギガバイトになっています。--progress=dot:mega3GBファイルの場合のみ、1000行の出力を生成します(明らかに3000 * 80ドット( '。')になります)。だから私は疑問に思っています:実際にログ機能を利用できるように、進行スタイルの設定をカスタマイズする方法はありますか?

6
wgetがファイルを上書きできるようにする方法
ロックされています。この質問とトピックへの回答はロックされています。質問はトピックから外れていますが、歴史的に重要です。現在、新しい回答や相互作用を受け入れていません。 wgetコマンドを使用して、起動回数に関係なく、ローカルファイルを毎回上書き/許可する方法を教えてください。 たとえば、http://server/folder/file1.htmlの場所からファイルをダウンロードするとします。 ここで、と言うときはいつでもwget http://server/folder/file1.html、file1.html変更された時間やダウンロード済みの時間などに関係なく、ローカルシステムでこれを上書きします。ここでの意図/使用例は、wgetを呼び出したときに、既存のファイルを置換/上書きします。 以下のオプションを試してみましたが、各オプションは他の目的のために意図された/意味があります。 -nc => --no-clobber -N =>タイムスタンプをオンにする -r =>再帰的な取得をオンにします

2
1つのリモートサーバーから別のリモートサーバーに30GBのtarファイルを転送します-ディスク容量に制約されます
私は古いサーバー(共有ホスティング)から転送する必要のある38GBの「Moodle」tarファイルを持っています。これを「サーバーA」から新しいサーバー(専用仮想)または「サーバーB」に呼び出すことができます。助けになればMediatempleと一緒です。 私はすでにディレクトリをtarballし、wgetを使用してそれをSSH経由でサーバーBに転送しましたが、これは100GBの気の利いたパッケージであり、ディスク容量は96%です-つまり、サーバーBのファイルを解凍できません!この巨大なファイルをサーバーAからサーバーBに転送して、アクセス許可を維持し、ファイルの破損を最小限に抑えて、ディスクの制限に達しないようにする方法はありますか? 私はこれまでかなりの時間を費やしてきましたが、誰かがより良いアイデアを提供してくれるなら、私は元の計画を放棄するつもりです-そして私はとても感謝しています!
8 files  tar  wget 

1
Cygwin WindowsでHTTPS URLでwgetを実行するときに証明書エラーを修正するにはどうすればよいですか?
CygwinをWindowsシステムにインストールしました。wgetWebサイトに対してコマンドを実行しようとしていますが、次のエラーメッセージが表示されます。 ERROR: The certificate of `xxx.com' is not trusted. ERROR: The certificate of `xxx.com' hasn't got a known issuer. この問題を解決するにはどうすればよいですか?
8 cygwin  wget 

6
wgetでのクライアント証明書の使用
wgetでクライアント証明書を使用できません。ドキュメントでは、-certificateフラグの使用について説明しています。 証明書フラグの使用は明らかです。クライアント証明書のPEMバージョンを使用するように設定しました。 しかし、接続すると次のエラーが発生します。 HTTP request sent, awaiting response... Read error (error:14094410:SSL routines: SSL3_READ_BYTES:sslv3 alert handshake failure; error:140940E5:SSL routines:SSL3_ READ_BYTES:ssl handshake failure) in headers. Giving up. sslハンドシェイクの失敗は、クライアントが正しいクライアント証明書を提供しなかったことを意味します。それでも私が使用するクライアント証明書はブラウザで動作します。 注:サーバーでクライアント認証を無効にすると、wgetが接続できます。注:curlの使用をお勧めしますが、切り替えは避けたいです。

6
パラメータ付きのリンクをたどらずにwgetでダウンロードする方法
CDに含める2つのサイトをダウンロードしようとしています。 http://boinc.berkeley.edu/trac/wiki http://www.boinc-wiki.info 私が抱えている問題は、これらが両方ともウィキであることです。したがって、たとえば次のようにダウンロードする場合: wget -r -k -np -nv -R jpg,jpeg,gif,png,tif http://www.boinc-wiki.info/ ...?action = edit ...?action = diff&version = ...のようなリンクもたどるので、たくさんのファイルを取得します 誰かがこれを回避する方法を知っていますか? 画像なし、差分なしなど、現在のページだけが必要です。 PS: wget -r -k -np -nv -l 1 -R jpg,jpeg,png,gif,tif,pdf,ppt http://boinc.berkeley.edu/trac/wiki/TitleIndex これはバークレーで機能しましたが、boinc-wiki.infoはまだ問題を引き起こしています:/ PPS: 私は最も関連性の高いページのように見えるものを得ました: wget -r -k -nv -l 2 -R jpg,jpeg,png,gif,tif,pdf,ppt http://www.boinc-wiki.info
7 linux  unix  wget 

1
wgetはサイトから特定のフォルダーのみをダウンロードします
このサイトをwgetでダウンロードし、これを行うには、次のコマンドを使用します。 wget.exe --no-clobber --no-parent -r --convert-links --page-requisites -U Mozilla "http://www.s-manuals.com/smd/" 私には問題ありませんが、リンクされたPDFファイルは、URLの例と同じレベルのフォルダーにあります。 http://www.s-manuals.com/pdf/datasheet/a/f/afn3400_alpha-mos.pdf そのため、/pdf/フォルダもダウンロードする必要があります。問題は、同じレベルのディレクトリにある--no-parent場合、オプションはこのディレクトリを回避しますが、--no-parentサイト全体を削除するとダウンロードされるため、これらの2つのフォルダのみをダウンロードできるオプションがあるかどうかです?
-1 wget 
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.