robots.txtファイルで正規表現を使用してURLをブロックできますか?


23

いくつかの動的に生成されたURLがあります。

robots.txtファイルで正規表現を使用してこれらのURLをブロックできますか?


クロール/インデックス登録したくないページにロボットのメタタグを設定する価値もあります。
アンドリューロット14

私の場合は@AndrewLott私はrobots.txtの中に使用する正規表現を考えたので、私は、もっとして500ページを持っている...
Sudheera NJS

次に、サイトコード内のルールがおそらく役立つでしょう。
アンドリューロット14

回答:


27

robots.txtでは正規表現は無効ですが、Google、Bing、および他の一部のボットはパターンマッチングを認識します。

URLのexampleどこかにany があるすべてのURLをブロックする場合は、ワイルドカードエントリを使用できます*

User-agent: *
Disallow: /*example

また、ドル記号$を使用して、URLをそのように終了する必要があることを指定することもできます。したがって、で終わるすべてのURLをブロックしたいが、URLの他の場所にあるURLはブロックしたくexampleないexample場合:

User-agent: *
Disallow: /*example$

Googleの詳細については、Robots.txtの仕様、Bingはこちら、Robots.txtファイルを作成する方法、およびMozに関するインタラクティブガイドはこちらにあります。


パーフェクト、*は正常に動作しています、ウェブマスターツールでテスト済み。ありがとうございます... :)
Sudheera Njs 14

robots.txtファイルで派手なディレクティブを使用しないように注意してください。これらは、後でデバッグするのが本当に難しいです。物事をできるだけシンプルに保つようにしてください。また、robots.txtでは大文字と小文字が区別されるため、サイトに応じてディレクティブの代替バージョンを追加する必要があることも覚えておいてください。
ジョンミューラー14

正規表現がサポートされていればいいと
思います-SuperUberDuper
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.