検索エンジンのWebクローラーから隠したいサブディレクトリがあります。
これを行う1つの方法robots.txtは、サーバーのルートディレクトリでaを使用することです(標準的な方法)。ただし、WebサイトのURLを知っていて、基本的なWeb知識がある人は、robots.txtのコンテンツにアクセスして、許可されていないディレクトリを見つけることができます。
これを避ける方法を考えましたが、うまくいくかどうかはわかりません。
Let Xを除外するサブディレクトリの名前にします。一つの方法は、Webクローラがインデックス作成を停止するXディレクトリを、同時に識別するために、誰かのために困難にするためにX、ルートのからディレクトリをrobots.txt、追加することであるrobots.txtにXディレクトリの代わりに、ルートディレクトリ。
この解決策に従う場合、次の質問があります。
- Webクローラー
robots.txtはサブディレクトリでそれを見つけますか?(それがrobots.txt既に存在し、ルートディレクトリにも存在する場合) 場合
robots.txtであるXサブディレクトリ、私は相対的または絶対パスを使用する必要が?:User-agent: * Disallow: /X/または
User-agent: * Disallow: /