すべてを許可するようにrobots.txtを構成する方法


116

robots.txtGoogleウェブマスターツールのマイには次の値が表示されます。

User-agent: *
Allow: /

どういう意味ですか?私はそれについて十分な知識を持っていないので、あなたの助けを探しています。すべてのロボットが私のウェブサイトをクロールできるようにしたいのですが、これは正しい構成ですか?


すべてのWebクローラーで許可が理解されないため、代わりにdisavow:(つまり、:の後にURLを付けない)を使用します。これは、より安全である(参照:youtu.be/G29Zt-UH_Koを
ジェローム・Verstrynge

回答:


153

そのファイルにより、すべてのクローラーがアクセスできるようになります

User-agent: *
Allow: /

これは基本的に、サイトのすべての部分(/)に対するすべてのユーザーエージェント(*)を許可します。


11
許可部分を無効にする必要がない限り、正解です。「許可」がないので、次のようにします。「User-agent:* Disallow:」のように、robotstxt.org
vsdev

許可部分があります。Googleの公式ドキュメントdeveloper.google.com/search/reference/robots_txt#allowを
Hasan Sefa Ozalp

60

すべてのボットがすべてをクロールできるようにする場合は、robots.txtでこれを指定するための最良の方法です。

User-agent: *
Disallow:

このDisallowフィールドには空の値があること注意してください。これは仕様に従っていることを意味します

空の値は、すべてのURLを取得できることを示します。


あなたの方法(のAllow: /代わりにDisallow:)も機能しますAllowが、元のrobots.txt仕様の一部ではないため、すべてのボットでサポートされているわけではありません(Googlebotのように、多くの一般的なボットはサポートしています)。とはいえ、認識されないフィールドは無視する必要があります。認識しないボットのAllow場合、結果はこの場合も同じです。つまりDisallow、(を使用して)クロールが禁止されていない場合、すべてのクロールが許可されます。
ただし、正式には(元の仕様によれば)、少なくとも1つのDisallowフィールドが必要であるため、これは無効なレコードです。

少なくとも1つのDisallowフィールドがレコードに存在する必要があります。


17

これはかなり古い質問であり、かなり良い答えがあることを理解しています。しかし、ここに完全さのために私の2セントがあります。

公式ドキュメントによれば、4つの方法があり、ロボットがサイトにアクセスするための完全なアクセスを許可できます。

掃除:

@unorで言及されているように、Disallowセグメントを持つグローバルマッチャーを指定します。だからあなた/robots.txtはこのように見えます。

User-agent: *
Disallow:

ハック:

/robots.txt中身のないファイルを作成します。デフォルトでは、すべてのタイプのすべてに対して許可されますBots

私は気にしない:

まったく作成しないでください/robots.txt。上記の2つとまったく同じ結果が得られるはずです。

ぶさいく:

ロボットのメタタグに関するドキュメントから、サイトのすべてのページで次のメタタグを使用しBotsて、これらのページがインデックスに登録されていないことを知らせることができます。

<META NAME="ROBOTS" CONTENT="NOINDEX">

これをサイト全体に適用するには、すべてのページにこのメタタグを追加する必要があります。また、このタグはHEADページのタグの下に厳密に配置する必要があります。このメタタグの詳細については、こちらをご覧ください


WordPressが仮想robots.txtを生成するため、robots.txtとWordpressは悪い組み合わせではありません。WordPressが生成するものに満足していない限り。
Jesper、

8

つまり、すべての(*)ユーザーエージェント/クローラーに/サイトのルート()へのアクセスを許可します。大丈夫。


5
robotstxt.org/robotstxt.htmlによると、「許可」フィールドがないため、使用するように注意します。:ウィキペディアは「いくつかの主要なクローラは、次のDisallowのディレクティブを打ち消すことができますディレクティブを許可するサポート」に言及en.wikipedia.org/wiki/Robots_exclusion_standard#Allow_directive
Mackaaij
弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.