今日、私のSEOニュースでこの記事に遭遇しました。robots.txtのNoindex:
標準Disallow:
ディレクティブに加えて、ディレクティブを使用できることを暗示しているようです。
Disallow: /page-one.html
Noindex: /page-two.html
検索エンジンがページ1をクロールしたり、ページ2のインデックスを作成したりできないように思われます。
このrobots.txtディレクティブはGoogleや他の検索エンジンでサポートされていますか?うまくいきますか?文書化されていますか?
わからないけど、これは一部の人にとって非常に役立ちます。また、サイトマップを拡張してコミュニケーションを強化してほしい。ロボットとサイトマップの間で、これはサイトについて検索エンジンや他の人々に通信する絶好の機会になるはずです。また、Googleのサイトレビュアーと直接話をする機会を得たかのように、概要ページなどの検索で利用できるのとは別の方法で検索エンジンにサイトについて通知するテキストベースの機会にも賛成です。それはいくつかの心の痛みと誤解を救うことができます。おおっっっっっっっっっっっっっっっっっっっきりと言ってのチャンスです。
—
closetnoc
disallow
親ページと子ページにリンクが存在する場合、Googleがリンクを検出するのを止めるような印象を受けています。一方でnoindex
、単純にリストされているページを停止不許可はありませんが、それは発見を停止しません。
@SimonHayter私はそれが
—
スティーブンオスターミラー
nofollow
メタタグに対してどのように機能するかを知っています。それがrobots.txtにも当てはまるかどうかを知っておくとよいでしょう。
@StephenOstermillerはメタタグだけでなく、同じ
—
Simon Hayter
<a rel="no-follow">
ことです。それが異なって扱われる理由は私にはわかりません。明らかにこれは公式ではなく、John Mullerがrobots.txtで使用しないことを推奨していますが、彼のツイートを除いて、私はそれについて多くの情報を見つけることができませんでした。
Googleがファイル
—
アラン
Noindex
内のディレクティブにrobots.txt
エラーとしてフラグを立てなくなったことは注目に値します。