検索エンジンのWebクローラーから隠したいサブディレクトリがあります。
これを行う1つの方法robots.txt
は、サーバーのルートディレクトリでaを使用することです(標準的な方法)。ただし、WebサイトのURLを知っていて、基本的なWeb知識がある人は、robots.txtのコンテンツにアクセスして、許可されていないディレクトリを見つけることができます。
これを避ける方法を考えましたが、うまくいくかどうかはわかりません。
Let X
を除外するサブディレクトリの名前にします。一つの方法は、Webクローラがインデックス作成を停止するX
ディレクトリを、同時に識別するために、誰かのために困難にするためにX
、ルートのからディレクトリをrobots.txt
、追加することであるrobots.txt
にX
ディレクトリの代わりに、ルートディレクトリ。
この解決策に従う場合、次の質問があります。
- Webクローラー
robots.txt
はサブディレクトリでそれを見つけますか?(それがrobots.txt
既に存在し、ルートディレクトリにも存在する場合) 場合
robots.txt
であるX
サブディレクトリ、私は相対的または絶対パスを使用する必要が?:User-agent: * Disallow: /X/
または
User-agent: * Disallow: /