回答:
サイトマップファイルには、50,000のURLとサイトマップあたり10メガバイトの制限があります。サイトマップはgzipを使用して圧縮できるため、帯域幅の消費を削減できます。複数のサイトマップファイルがサポートされています。サイトマップインデックスファイルは、合計1000のサイトマップのエントリポイントとして機能します。
robots.txtファイルで複数のサイトマップを指定できることに注意してください。
制限にぶつかっている場合は、おそらくユーザーを何らかの方法で分割します。各ユーザーのピースのURLの数が10,000以下であるとしましょう。URLをファイルに分割し、これをファイルに追加できrobots.txt
ます。
Sitemap: http://www.example.com/sitemaps/users-001-005.xml
Sitemap: http://www.example.com/sitemaps/users-006-010.xml
Sitemap: http://www.example.com/sitemaps/users-011-015.xml
Sitemap: http://www.example.com/sitemaps/users-016-020.xml
Sitemap: http://www.example.com/sitemaps/users-021-025.xml
Sitemap: http://www.example.com/sitemaps/users-026-030.xml
Sitemap: http://www.example.com/sitemaps/users-031-035.xml
Sitemap: http://www.example.com/sitemaps/users-036-040.xml
Sitemap: http://www.example.com/sitemaps/users-041-045.xml
Sitemap: http://www.example.com/sitemaps/users-046-050.xml
ここでも、個々のサイトマップごとに10MBの制限に注意する必要がありますが、これは「多すぎる」URLの問題を処理するためのアプローチです。