Webサイトのデータで直接tailを使用するか、別のユーティリティが必要ですか?


2

RRDデータベースにデータを入力するために、Webサイトのデータの最後の行から単一のデータフィールドを抽出することを計画しています。Linuxを実行しています。

Webサイトは、http//www.ogimet.com/cgi-bin/getsynop?begin = 201309250000&block = 03895(空港の気象データ)です。

質問:Webサイトからデータの最終行tail直接読み取るために使用できますか、または別のユーティリティを使用tailしてデータを読み取ってから最終行を取得する必要がありますか?awkその行からデータのn番目のフィールドを分離するための最良のユーティリティはありますか?(私はPerlに慣れていません)。

ありがとう。ナイジェル。


主な質問に答えているので、はい- awkおそらくその部分に最適なツールであり、このようなものに非常に使いやすいです。
オタクウォーラー

回答:


2

curlネットワークデータを表示するのstderr出力を無効にして、次のようにパイプするだけtailです。

$ url="http://www.ogimet.com/cgi-bin/getsynop?begin=201309250000&block=03895"
$ curl "$url" 2>/dev/null | tail -n 1
03895,2013,11,28,15,00,AAXX 28154 03895 41450 82702 10090 20076 40342 56014 70252 885// 333 86613=

あなたは出て残すことができます2>/dev/nullしたい、それが場合のために重要ではありませんtailが、それは見て立派です。


0

いいえ、tailはネットワークから読み取りませんが、wget、curl、snarfは読み取ります。これらの各プログラムは、リモートファイルをダウンロードして保存したり、ダウンロードして標準出力に印刷したりできます。次に、tailとawk(これがうまくいくとわかっている場合)が登場します。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.