有効な最小のrobots.txtファイルとは何ですか?


14

Webサーバーのaccess.logに多くの404エラーが記録されるのが好きではありません。クローラーがrobots.txtファイルを開こうとしましたが、見つかりませんでした。そこで、ログファイルに404エラーが表示されないようにする単純なrobots.txtファイルを配置します。

サイト上のすべてをクロールできる最小の有効なrobots.txtファイルとは何ですか?

回答:


17

ここに示すように、Webサーバーの最上位ディレクトリにrobots.txtという名前のテキストファイルを作成します。空のままにするか、次を追加できます。

User-agent: *
Disallow:

ロボットにすべてをクロールさせる場合。そうでない場合は、上記のリンクをご覧ください。


「許可:」だけでなく「許可しない」を追加する理由
Athoxx

2
@Patrik "Allow"は、以前の "Disallow"ディレクティブをオーバーライドするためのものです。「不許可」がなければ意味がありません。正直なところ、最善の解決策は空のファイルです。
不機嫌なヤギ14年

2
ああ、分かった。また、空のファイルが最適であることにも同意します。
Athoxx 14年

2
@PatrikAlienus「Allow」はrobots.txt仕様にないためです。
-user11153

1
@ user11153:え?1997年のインターネットドラフト仕様「Web Robots Controlの方法」のセクション「3.2.2 The Allow and Disallow lines」はどうですか?
デビッドケーリー

2

最良の最小限robots.txtは、完全に空のファイルです。

Disallowまたはその他の「null」ディレクティブAllow: *は、no-opであるため役に立たないだけでなく、不要な複雑さを追加します。

ファイルを完全に空にしたくない場合、または人間が読みやすいようにする場合は#、などの文字で始まるコメントを追加し# blank file allows allます。クローラーは、で始まる行を無視し#ます。


0

私はこれを言うでしょう。

User-agent: *
Disallow: /wp-admin/
Allow: /wp-admin/admin-ajax.php

Googleがすべてをクロールできるようにしますが、Googleがアドミンパネルをクロールすることを禁止します。これはあなたにとって理想的な状況です。


2
私は何かを見逃しているかもしれませんが、質問者がWordpressを使用していると言ったとは思いません。
マクシミリアン・ローメイスター
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.