X分ごとにWebサイトにアクセスする[終了]


0

X分ごとに指定のWebサイトにアクセスするスクリプトまたはサービスはありますか?


@donald-Apacheベンチマークのような?あなたの基本的な意図は何ですか?

1
どのように私は私にSEOをするのですか...ただの考えのように見えます。その場合、それは失敗です。
RobotHumans

WindowsまたはUnix?
マイケルプライアー

回答:


7

2分ごとにヒットするには:

while true; do curl yourwebsite.com >/dev/null; sleep 120; done

これを終日実行したい場合は、cronなどのジョブスケジュールサービスを使用します(もちろん、whileループは使用しません)。


これは機能しますが、おそらくダウンロードしたディレクトリにダウンロードされたHTMLの山があります:)

@クリス:ええ、知っています。あなたがコメントを書いている間に、私はそれをcurlに変更したに違いありません。:-)
マルセロカントス

wgetの-oを/ dev / null example.com ...ああ、あなたは右、すでにそれを固定:D

1
import time
import urllib

while True:
    time.sleep(60)
    place = urllib.urlopen('http://www.google.com')
    print place.code
    place.read()

0

curlまたはwgetを見て、それをシェルスクリプトまたは他の種類のスクリプトで使用しましたか?


0

カールではうまくいかないようです。結局のところ、データが変化しない限り、なぜデータを繰り返し取得するのでしょうか?

15分ごとに衛星写真を取得したかったので、Javaで衛星写真グラバーを作成しました。

擬似コードは次のようになります。

  1. ファイルをダウンロードする
  2. 最後のファイルと比較します(これは、ほとんどの場合、長さが同じであれば、ファイルは変更されていないため、長さを比較することで実行できます。バイトを比較する必要があります。
  3. ファイルが同じ場合、スリープして1に戻ります
  4. 異なる場合は、新しいシーケンス番号(sat1.jpg、sat2.jpgなど)で新しいものを書き出し、次回のスリープのために新しい画像を古い画像として保存し、1に戻ります。


0

cronジョブでwgetを使用します。少なくともLinuxでは。これは私のウェブサイトでバックアップスクリプトとdb-syncを実行する方法です

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.