回答:
wgetを使用して、次のようなコマンドを実行できます。
wget --recursive --level=1 --no-directories --no-host-directories --accept pdf http://example.com
または、短いオプションで:
wget -r -l 1 -nd -nH -A pdf http://example.com
更新:更新ではWindows 7を実行していると表示されるため、cmd
プロンプトからWindowsのwgetを使用します。
更新2:グラフィカルソリューションの場合-他のファイルも取得するため、やりすぎかもしれませんが、DownThemAllです
-w 5
ブラウザでCTRL+ SHIFT+を押してJ、入力します
var pdflinks = []; Array.prototype.map。call(document.querySelectorAll( "a [href $ = \"。pdf \ "]")、function(e、i){if((pdflinks || [])。indexOf(e.href)==-1) {pdflinks.push(e.href);}}); console.log(pdflinks.join( ""));
これはコンソールに戻ります:
" /superuser/tagged/somepdf1.pdf " " /superuser/tagged/somepdf2.pdf " " /superuser/tagged/somepdf3.pdf」
今使用してwget
コマンドラインオプションでwget url1 url2 ...
これをコピーして貼り付け、コンソールを開いてEnter wget
キーを押し、クリップボードのコンテンツを挿入してEnterキーを押します。
ダウンロードファイルを使用するには、行を「\ n」で結合し、次のようにパラメーターを使用します wget -i mydownload.txt
他のほとんどの(GUI)ダウンロードプログラムも、スペースで区切られたURLのリストで呼び出されることを受け入れます。
お役に立てれば。これが私が一般的に行う方法です。グラフィカルUIを備えた拡張機能よりも高速で柔軟性が高いため、習得しておく必要があります。
console.log('"' + pdflinks.join('" "') + '"')
ことです-そうでなければ、実際に引用符で囲まれたURLを取得しません
Google Chromeでは、次のような拡張機能を使用できます。
この拡張機能を使用すると、アクセスしているWebページにリンクされているすべての画像、ビデオ、pdf、doc、およびその他のファイルをダウンロードできます。
Googleの検索結果に基づいてWebサイトからPDFリンクをダウンロードできるPythonツールはほとんどありません。
例えば
google_dl
スクリプト(推奨)。
使用法:
./google_dl -s http://www.example.com/ -f pdf ""
gsrchDwn
スクリプト(neoのスクリプトに基づく)。
使用法:
./gsrchDwn.py --query "site:http://www.example.com/" --ftype pdf
注:私は、上記の両方のスクリプトのメンテナーです。
どちらもxgoogle
Pythonライブラリを実装しています。このライブラリの私のフォークは、pkrumins/xgoogle
バージョンに基づいています。