Googleがすべてのページリソースを読み込めないため、スクリプトエラーが発生し、SEOに悪影響を及ぼしている可能性があります


8

ほとんどのウェブサイトに同じエラーがあるという事実にたどり着きましたが、それを解決する方法がわかりません。

https://search.google.com/test/mobile-friendly

ウェブサイトの一部のスクリプトが含まれていないようです。これは、オーガニックSEOの結果に影響を与えると考えています。Googleのモバイルフレンドリーテストの手順を試しましたが、結果はありませんでした。私たちは今、過去1週間を探していましたが、まだ解決策を見つけていません。

助言がありますか?お知らせください!

エラー:

ページが部分的に読み込まれました

すべてのリソースページをロードできるわけではありません。これは、Googleがページを認識して解釈する方法に影響を与える可能性があります。Googleがページを解釈する方法に影響を与える可能性があるソースの可用性の問題を修正します。」


これは、robots.txtで許可されていないスクリプトが原因で発生することがよくあります。WordPressサイトでは、許可しないwp-contentことがこれらの問題を引き起こす可能性があります。 robots.txtは、少なくとも今のところ、私には問題なく見えます。最近変更しましたか?
スティーブンオスターミラー

1
もうこれで終わりになりましたか?数十のWebサイトで同様の問題が発生しています。すべてのテストで異なる結果が得られ、場合によってはすべてがロードされ、リソース、CSS、JS、またはイメージのロードに失敗する場合があり、その後、エラーがトリガーされ、モバイルフレンドリーではないことが電子メールで送信されます。
Goran Usljebrka

回答:


1

Googlebotは多くのJavascriptを読み取ることができますが、すべてを読み取ることはできません。robots.txtファイルが.jsファイルのクロールを許可するように設定されている場合、JavaScriptが複雑すぎてGoogleで完全にレンダリングできない可能性があります。

その結果、Googleが正しく処理できるバージョンを特定するために、モバイルフレンドリーテストでJavaScriptのさまざまなバージョンをテストし続ける必要がある場合があります。JavaScriptが複雑になるほど、Googleがそれを読み取れなくなる可能性が高くなります。できる限りJavascriptを簡略化してみてください。


10個のjsjpgファイルのリストでまったく同じ問題が発生しているので、私はそうは思いません。それでは、あなたの説明を考慮して、jpgファイルについてはどうでしょうか。
2018年

1

「ページが部分的に読み込まれました」は、googlebotが読み込めなかったリソースのリストを提供する必要があります。アクセシビリティについてこれらのリソースを確認することから始めます。

  • 次に、これを試してください。モバイルフレンドリーなテストを2回実行します。最初にhttp://バージョン、次にhttps://バージョン。これは、サイトのhttpsバージョンがhttpバージョンからリソースをロードしようとしているかどうか、およびその逆を確認するためのものです。2つのテストの間に、読み込まれていないリソースの数に違いがある場合は、それらのリソースにゾーン分けします。

  • 何がいつロードされているかをよりよく把握するには、gtmetrix.comでサイトをテストしてください。これにより、時系列で読み込まれたリソースがウォーターフォール形式で提供されます。

  • コードの前面では、JavaScriptの数を減らします。いずれかのサイトのソースを確認したところ、20近くのJavaScriptが含まれていることがわかりました。これは、同じドメインからの多くのhttpリクエストです。さらに、画像、CSS、フォントなどのリクエストを追加します。JSファイルとCSSファイルをそれぞれ1つまたは2つのファイルにマージしてみてください。


これは問題にうまく対処していません。Googleのモバイルフレンドリーテストツールでまったく同じ問題が発生しています。レポートリソースを読み込めず、10 jsjpgファイルのリストを表示できませんでした。問題なく自分でダウンロードできます。
2018年

1

このテストを使用する場合、多くの広告追跡ピクセル/スクリプト(GoogleのピクセルとDoubleclickのピクセル(GoogleはDoubleclickを所有)も)は、制御できない独自のrobots.txtファイルによってブロックされる可能性があることに注意してください。私は自分のサイトの1つでこれを直接見たことがあります。Googleは、自分のDoubleclickピクセルがGooglebotによってスキャンされるのをブロックしました。「Googlebotはピクセルトラッカーをフォローするのではなく、ページ上のコンテンツを識別するためのものです。Google独自のトラッキングピクセルでも独自のGooglebotをブロックしています。それで、ピクセルトラッカーがブロックされているかどうか気にする必要があるのはなぜですか?」これはFacebookのピクセルでも見られます。

ただし、制御するrobots.txtファイルであり、ピクセルトラッキングとは何の関係もない場合は、おそらく対処する必要があります。今、あなたのウェブサイトのメンバーシップのみの部分、またはあなたのウェブサイトの管理者のみの部分があり、それがホームページからリンクされている場合、Googlebotがリンクしないようにリンククローキングまたはnofollowリンク属性を検討するかもしれませんあなたのページでそれに従ってください。ただし、GoogleがWebサイトのメンバーまたは管理者のみのセクションを過ぎてGooglebotに許可するかどうかを尋ねる必要があります。これはおそらく私の意見ではありません。

しかし、これは私の意見です。実際にGoogleのSEOエンジニアリングチームに対応してもらうことができない限り、私たちは暗闇の中で模索しているので、ここでは常識的な直感を使用する必要があります。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.