タグ付けされた質問 「download」

3
curlとwgetの違いは何ですか?
私は違いを知ることに熱心だcurlとwget。どちらもファイルとドキュメントを取得するために使用されますが、それらの主な違いは何ですか。 なぜ2つの異なるプログラムがあるのですか?
258 utilities  wget  curl  download 


8
ターミナルを使用してGoogleドライブからフォルダをダウンロードする方法は?
ターミナルを使用して、Googleドライブからフォルダーをダウンロードしたいですか?それを行う方法はありますか?私はこれを試しました: $ wget "https://drive.google.com/folderview?id=0B-Zc9K0k9q-WWUlqMXAyTG40MjA&usp=sharing" ただし、次のテキストファイルをダウンロードしています:folderview?id=0B-Zc9K0k9q-WdEY5a1BCUDBaejQ&usp=sharing。ターミナルからGoogleドライブフォルダをダウンロードする方法はありますか?
59 wget  download 

2
複数のコンピューターに大量のダウンロードを配布するにはどうすればよいですか?
大きなファイル(1GB)をダウンロードする必要があります。Linuxを実行している複数のコンピューターにもアクセスできますが、それぞれが管理ポリシーによって50kB / sのダウンロード速度に制限されています。 このファイルを複数のコンピューターにダウンロードして配布し、すべてのセグメントがダウンロードされた後にマージして、より速く受信できるようにするにはどうすればよいですか?

2
Linuxコマンドラインツールを使用して失敗したダウンロードを再開する
Linuxコマンドラインツールを使用して、部分的にダウンロードしたファイルを再開するにはどうすればよいですか? 大きなファイルを部分的にダウンロードしました。つまり、停電のために900 MBのうち400 MBをダウンロードしましたが、ダウンロードを再開すると、最初から再開します。400 MB自体から開始するにはどうすればよいですか?
37 wget  curl  download 

3
URLとそれに対応する出力ファイルのリストでwgetを使用するにはどうすればよいですか?
list_of_urls次のようになっているとします: http://www.url1.com/some.txt http://www.url2.com/video.mp4 私はそれを使用する方法を知っています: wget -i list_of_urls しかし、私list_of_urlsがこれを持っていて、PDFやビデオなどの適切なファイルがすべて返されたらどうなりますか? http://www.url1.com/app?q=123&gibb=erish&gar=ble http://www.url2.com/app?q=111&wha=tcha&mac=allit 単一のファイルの場合、これを行うことができます: wget -O some.txt "http://www.url1.com/app?q=123&gibb=erish&gar=ble" wgetURLのリストをダウンロードし、返されたデータを適切なローカルファイルに保存するにはどうすればよいですか?
35 files  wget  download  links 

5
パッケージをダウンロードするには、apt-getコマンドでインストールしないでください。
sudo apt-get install pppoe pppoeパッケージをダウンロードしてインストールします。 pppoeパッケージをダウンロードするだけで、apt-getコマンドでインストールしないことは可能ですか? wget http://ftp.us.debian.org/debian/pool/main/p/ppp/ppp_2.4.7-1+4_amd64.deb ppp_2.4.7-1+4_amd64.deb 現在、現在のディレクトリにあります。 cd /tmp sudo apt-get install -d ppp Reading package lists... Done Building dependency tree Reading state information... Done The following NEW packages will be installed: ppp 0 upgraded, 1 newly installed, 0 to remove and 95 not upgraded. Need to …
32 apt  download 

7
接続不良で大きなファイルをダウンロードする
悪い接続で大きなファイルをダウンロードするために使用できる既存のツールはありますか? 300 MBの比較的小さなファイルを定期的にダウンロードする必要がありますが、低速(80〜120 Kバイト/秒)のTCP接続は10〜120秒後にランダムに切断されます。(それは大企業のネットワークです。私たちは彼らの管理者(インドで働いている)に何度も連絡しましたが、彼らは何もしたくない、またはしたくないのです。)問題はリバースプロキシ/ロードバランサーにあるかもしれません。 これまで、変更したバージョンのpcurlを使用していました:https : //github.com/brunoborges/pcurl 私はこの行を変更しました: curl -s --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & これに: curl -s --retry 9999 --retry-delay 3 --speed-limit 2048 --speed-time 10 \ --retry-max-time 0 -C - --range ${START_SEG}-${END_SEG} -o ${FILENAME}.part${i} ${URL} & --speed-limit 2048 --speed-time 10接続が失敗した場合、ほとんどの場合接続が数分間ハングするだけなので、追加する必要がありました。 しかし最近、このスクリプトでさえ完了できません。 1つの問題は、-C -部品を無視しているように見えるため、再試行後にセグメントを「継続」しないことです。関連する一時ファイルを切り捨て、失敗するたびに最初から開始するようです。(オプション--rangeと-Cオプションは一緒に使用できないと思います。) もう1つの問題は、このスクリプトがすべてのセグメントを同時にダウンロードすることです。300個のセグメントを持つことはできません。そのうち10個のみが一度にダウンロードされます。 この特定の目的のためにC#でダウンロードツールを作成することを考えていましたが、既存のツールがある場合、またはcurlコマンドが異なるパラメーターで適切に機能する場合は、時間を割くことができます。 更新1:追加情報:並列ダウンロード機能は、接続ごとに帯域幅の制限(80〜120 Kバイト/秒、主に80)があるため、削除しないでください。したがって、10接続で10倍の速度が向上します。ファイルは1時間ごとに生成されるため、ファイルのダウンロードは1時間で完了する必要があります。
30 curl  http  download 

4
wget-特定のMIMEタイプ/拡張子のみを再帰的にダウンロードする方法(テキストのみ)
Webサイト全体をダウンロードする方法。ただし、すべてのバイナリファイルを無視します。 wget-rフラグを使用してこの機能がありますが、すべてをダウンロードし、一部のウェブサイトはリソースの少ないマシンには多すぎて、私がサイトをダウンロードしている特定の理由では使用できません。 私が使用するコマンドラインは次のとおりです:(wget -P 20 -r -l 0 http://www.omardo.com/blog自分のブログ)

2
ファイルをダウンロードし、ソースと同じファイル構造を作成します
ダウンロードしたいURIのリストで構成される構成ファイルがあります。例えば、 http://xyz.abc.com/Dir1/Dir3/sds.exe http://xyz.abc.com/Dir2/Dir4/jhjs.exe http://xyz.abc.com/Dir1/itr.exe 構成ファイルを読み取り、各URLをコピーしますが、同時にホストと同じディレクトリ構造を作成します。たとえば、構成ファイルの最初の行では、ローカルマシンにディレクトリ構造Dir1 / Dir3を作成し(存在しない場合)、sds.exeを... / Dir1 / Dir3 /にコピーします。 「wget -i」を使用してファイル内のすべてのURLをダウンロードできることがわかりましたが、それに対応するディレクトリ構造を作成するにはどうすればよいですか


7
トレントを1回ダウンロードするためのコマンドラインツール(wgetやcurlなど)
トレントのコンテンツをダウンロードする単一のコマンドに興味があります(ダウンロードを停止するまで、ダウンロードに続くシードとして参加する可能性があります)。 通常、事前に個別に起動する必要のあるtorrent-clientデーモンと、制御するクライアント(などtransmission-remote)があります。 しかし、私はwgetor のシンプルさを探していcurlます:1つのコマンドを与え、しばらくして結果を取得します。

1
ダウンロードしたaria2ファイルを* .aria2ファイルで再開します
aria2で部分的にダウンロードしたファイルがあります。その隣には、同じ名前で終わるファイルがあります.aria2。 ダウンロードリンクがわかりません。これらの2つのファイルしかありません。この状況でダウンロードを再開する方法を知りたいです。 注:*.aria2はダウンロードファイルと一緒に作成され、ダウンロードが完了するまで残ります。
13 download  aria2 


2
Wget:リンクを変換し、既に取得したファイルの再ダウンロードを避けますか?
パブリッシュ後に変更されない複数のファイルに分散したデータをダウンロードしています。 したがって--timestamping、それは十分ではありません。なぜなら、変更されたリソースを常にチェックしているからです。これは、私の場合、まったく無意味です。 --no-clobber完全にフィットします。残念ながら--convert-links 、何らかの理由で動作しません。 --no-clobberと--convert-linksの両方が指定され、-convert-linksのみが使用されます。 私はそれ--backup-convertedが助けになることを望みましたが、それは何も変わりませんでした(それはうまくいき--timestampingます)。 なぜwget --convert-links --backup-converted --no-clobber --wait 1 https://example.com無視し--no-clobber、どうすれば修正できますか?
12 wget  download 

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.