タグ付けされた質問 「google-search-console」

登録されたWebサイトの検索パフォーマンスと潜在的な問題に関する追加の洞察を提供するGoogle Webベースのコンソール。

1
SSLを使用してウェブマスターツールを「Fetch as Google Bot」に設定するにはどうすればよいですか?
SSLを必要とするページがあるため、ページはhttps://です。私はこのページをグーグルウェブマスターの診断ツール内でグーグルボットとして取得したいのですが、グーグルは私が知る限り、http呼び出しのみを許可しています。したがって、ページに入れると、httpからhttpsページへのリダイレクトのみが得られます。 httpsであるGoogleボットとしてページを取得するにはどうすればよいですか?

1
インデックス化されたページのほとんどでGoogleが構造化データを見つけられないのはなぜですか?
約30,000ページのWebサイトがあります。Googleのインデックスは問題ありません。ほとんどすべてのページがインデックス化されていますが、構造化データではschema.orgで48ページしか検出されていません。Schema.orgはWebサイト全体と同一です。 私の質問は、なぜインデックス付きページとマークアップページで検出されるのに大きな違いがあるのか​​ということです。 特に、私は自分のウェブサイトに適したスキーマをすべて実装するために一生懸命努力しましたが、現在Googleはそれらを検出しません。 インデックスページ-27,000以上 schema.orgのページ-48

3
Googleウェブマスターツールで報告された「site:」検索よりも少ないインデックスページの数
Googleウェブマスターツールでは、309ページのインデックスが作成されていますが、「site:site.com」を使用して検索すると、約180件しか表示されません(最初のページには「約608件の結果」、合計投稿数に近い数が表示されます)。 また、以前インデックスに登録されていた一部のページが単にGoogleから消えていることにも気付きました。Googleウェブマスターツールには、エラーメッセージや、Googleによる罰を示すものはありません。 Googleウェブマスターツールによると、毎日の新しいページはインデックスに登録されますが、何らかの理由で検索に表示されません。 Googleによる罰の影響を本当に受けているのでしょうか、これは何らかのバグですか?この問題を解決し、すべてのページを正常にインデックス化するにはどうすればよいですか?

2
Googleウェブマスターツールを適切に使用する方法(「www」ではなく「www以外」の場合)
Googleウェブマスターツールを正しく使用しようとしています。ウェブwwwサイトのURLでを使用していませんがwww、数か月前に最初にサイトをウェブマスターツールに追加したときに入力しなければならないことに気づきました。私のサイトにはwww含まれています。 私が尋ねようとしwwwているのは、URLに含まれていない別のウェブサイトプロファイルを作成する必要があるかどうかです。Googleは両方のバージョンを2つの異なるWebサイトとして表示していますか?を使用しないことで自分を傷つけていwwwますか? 両方のバージョンが実際に同じサイトである場合、検証ファイルの追加をどのように処理しますか?検証ファイルは、どちらのバージョンでもサーバー上の同じ場所にあります。非wwwバージョンの新しいプロファイルを作成するときに同じ検証ファイルを使用すると、どうなりますか? また、奇妙なのは、自分のサイト用に作成されたサイトマップがあることですが、Webmaster Toolsは、利用可能なものがないと言っています。YoastのWordPress SEOプラグインで作成しました。

2
RSSフィードURLをXMLサイトマップに含める必要がありますか?
簡単な質問-サイトのXMLサイトマップにRSSフィードURLを含めるべきですか? RSSフィードをXMLサイトマップとして使用するかどうかを尋ねるのではなく、サイトのさまざまなRSSフィードへのURLをXMLサイトマップに含める必要がありますか? 一般的なアドバイス、および/または私の質問への回答をサポートする関連ドキュメントへのポインタの両方を探しています。 前もって感謝します。

2
ウェブマスターツールで、裸のドメインとwwwドメインを別々のサイトとして追加する必要があります
簡単な質問:Googleウェブマスターツールでは、サイトをwwwに設定しています。裸のドメイン。 各バリアントのサイトを追加して検証する必要がありますか、それともwwwのままにしていずれかの参照を使用するだけですか?ありがとうございました!

4
Googleウェブマスターツールの「クロールエラー」をクリアするにはどうすればよいですか?
Googleウェブマスターツールの「クロールエラー」をクリアするにはどうすればよいですか?ウェブマスターツールのページには、2年前に「見つからない」クロールエラーがありますが、これはかなり前に修正しましたが、ウェブマスターツールに残っています。誤ったリンクが修正されると、それらは自然に消えると思いましたが、そうではないようです。古いクロールエラーを手動でクリアする方法はありますか?

1
Googlebotがサイトから別の確認ファイルをリクエストしていますが、心配する必要はありますか?
Google-Botが間違った検証方法でサイトにアクセスしているようです。検証にメタタグを使用するようにGoogle Webmasterを設定していますが、htmlファイルメソッド(404になります)のリクエストをまだ受信しています。Google Webmastersはまだ私のサイトを確認済みとして表示します。これを心配する必要がありますか? これは別のGoogleサービスからのものでしょうか?HTMLファイル方式に切り替える必要がありますか?両方を使用する必要がありますか?役に立つ場合に備えて、ログからのリクエストを以下に示します。 66.249.85.2 - - [12/Aug/2010:08:56:04 -0700] "GET /googlea6bf195e901587d1.html HTTP/1.1" 404 124 - "Google-Site-Verification/1.0,gzip(gfe),gzip(gfe)" 66.249.71.118 - - [11/Aug/2010:05:40:57 -0700] "GET /googlea6bf195e901587d1.html HTTP/1.1" 404 124 - "Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html),gzip(gfe),gzip(gfe)"

3
Googleキャッシュから何千ものURLを削除する方法は?
Googleは、公開すべきではない私のウェブサイトから何千ものPDFをキャッシュしました。ヘッダーを更新しましたが、既存のクイックビューキャッシュを削除する必要があります。 Googleウェブマスターツールを使用すると、1つずつ削除できますが、削除するファイルの量を考えると、これは明らかに実用的ではありません。 GoogleキャッシュからPDFをバッチ削除する方法を知っている人はいますか?「site:mysite.com * .pdf」に一致するすべてを削除する方法が理想的です

6
Googleボットによってインデックス化された数千万のページを取得する方法は?
現在、800万のユニークなページがあり、すぐに約2,000万、最終的には約5,000万以上に成長するサイトを開発しています。 批判する前に... はい、ユニークで有用なコンテンツを提供します。我々は継続的に公的記録からと、エンティティのロールアップをスクラブいくつかのデータを実行して生データを処理し、関係マッピングは、我々は、部分的に、またユニークな非常に便利とのサイトを開発し、質の高いコンテンツを生成することができました原因の広さにデータ。 PRは0(新しいドメイン、リンクなし)であり、1日あたり約500ページの速度でスパイダーされており、これまでに約30,000ページのインデックスが作成されています。このレートでは、すべてのデータのインデックス作成に400年以上かかります。 2つの質問があります。 インデックス作成のレートはPRと直接相関していますか?つまり、PRの良い古いドメインを購入することで、実用的なインデックス作成レート(1日あたり100,000ページ程度)に到達するのに十分な相関があるということです。 インデックス作成プロセス自体を支援することに特化したSEOコンサルタントはいますか。そうでなければ、特にページ上でSEOを非常にうまく活用しています。さらに、「ロングテール」キーワードフレーズの競争は非常に少ないため、成功は主にインデックスに登録されたページ数にかかっています。 当社の主要な競合他社は、Alexa 2000のようなランキングとともに、わずか1年で約20 MMページのインデックスを作成しました。 私たちが持っている注目すべき品質: ページのダウンロード速度はかなり良い(250-500ミリ秒) エラーなし(スパイダーされたときに404または500エラーなし) Googleウェブマスターツールを使用して、毎日ログインします わかりやすいURL サイトマップを送信するのが怖いです。一部のSEOコミュニティの投稿では、数百万ページの新しいサイトが提案されており、PRは疑わしくありません。監視の増加を回避するために、大規模なサイトの段階的なオンボーディングについて話しているMatt CuttsのGoogleビデオもあります(ビデオの約2:30)。 クリック可能なサイトリンクは、すべてのページを提供します。4ページ以下、通常は1ページに250(-ish)以下の内部リンクがあります。 内部リンクのアンカーテキストは論理的であり、詳細ページのデータに階層的に関連性を追加します。 以前、ウェブマスターツールでクロールレートを最高に設定していました(最大で2秒ごとに1ページのみ)。私は最近、「Googleに決定させる」ことを勧めました。

4
GoogleはCDNファイルをクロールしません
Googleウェブマスターツールが、私のウェブサイトでブロックされた多くのリソースを報告していることに気づきました。現在、すべての「ブロックされたリソース」は、Cloudfront CDNから提供する.css、.jsおよび画像(.jpg、.png)です。 私は多くの時間をかけてテストし、Googleがこれらのファイルをクロールせず、「リソースブロック」ステータスを報告しない理由を理解しようとしました。 現在、これらのファイルをcdn1.example.com、cdn2.example.comなどのいくつかのホスト名から提供しています。 cdn1、cdn2などは、cloudfrontディストリビューション名に対するCNAMEです。 テスト:cloudfrontディストリビューション(CNAMEなし)を直接使用しようとしましたが、問題は解決しません。 現在、robots.txtは次のようになっています。 # Google AdSense User-agent: Mediapartners-Google Disallow: #Google images User-agent: Googlebot-Image Disallow: / User-agent: * Disallow: /homepage Disallow: /index.php* Disallow: /uncategorized* Disallow: /tag/* Disallow: *feed Disallow: */page/* Disallow: *author* Disallow: *archive* Disallow: */category* Disallow: *tag=* Disallow: /test* Allow: / また、1つのサンプルページでブロックされたファイルの例: cdn1.example.com/wp-content/plugins/wp-forecast/wp-forecast-default.css cdn9.example.com/wp-content/plugins/bwp-minify/min/?f=wp-content/themes/magazine/css/font-awesome.min.css,wp-content/themes/magazine/css/sensitive .css cdn5.example.com/wp-content/themes/magazine/images/nobg.png …

7
Webmasters Toolsからfetch as Googlebotを使用すると「一時的に到達できません」
取得しようとしているページは公開されています。サーバーログにリクエストがありません。Googleの報告によると、私のサイトのどのページも「一時的にアクセスできません」。検証ファイル(ウェブマスターツールアプリケーション自体で検証するために正常に使用された静的HTMLファイル)もフェッチしません。 私のサイトはGoogle App Engineで実行されています。 何が原因ですか?

1
サイトに301を導入して以来、主要なGoogleは増加に追随しない
最近、バックエンドが時々休むように、Webノードの前にVarnishを実装しました。ワニスは大文字と小文字が区別され、アプリはそうではなかったため、小さいケースにリダイレクトするためにワニスに301を実装しました。例: 検索PlumBer StockHOLMすると、301リダイレクトが取得されplumber stockholm、 配管工のストックホルムがキャッシュされます。これは魅力的な機能でしたが、Googleウェブマスターツールをチェックすると、突然大量のステータスが表示されました-エラーを追跡できません。下の画像でわかるように: もちろん、これは多少のパニックを引き起こし、ドキュメントをもう一度読み始めました。リンクの1つを押すと、ヘルプセクションに移動しました。 これは奇妙なことですが、日が進むにつれて、Googleからエラーがスローされるようになりました。ワニスを301ではなく200に戻すことを決定しました。 ここで、[ フォローできません]セクションに表示されるリンクをテストすると、200が返されます。私はChrome、curl、lynxリーダーでテストしましたが、すべて問題ありませんが、エラーの量はまだ増え続けています。少し心がけているのは、[ フォローできません]セクションに表示されるリンクは、ワニスの200が変更される前の日付であるということです。なぜこれらのエラーが発生し、なぜ増加し続けるのですか?Googleは10月31日に何か新しいものをリリースしましたか?多分私はドキュメントを正しく理解していませんか?

3
「リンクを削除するための実質的で誠実な努力」を構成するもの
サードパーティのSEOコンサルタントのサービスを利用して、メタデータの管理を支援し、サイトhttp://cyberdesignworks.com.auで定期的にブログを作成しました。 私たちの承認なしに、SEOはリンク構築キャンペーンも実行しました。これにより、ペンギンが平手打ちされ、多くのコアキーワードでGoogleに表示されなくなりました。 3月に「不自然なリンク」が発生したことをGoogleから通知されて以来、さまざまな方法でこれらの危険なバックリンクを取り除くための重要なキャンペーンを実施してきました。 4回目または5回目の再提出に関するフィードバックを受け取ったところですが、Googleが再登録を検討する前に、「リンクを削除するための実質的で誠実な努力」を行う必要があることをまだ伝えています。 リンクを削除するために費やした努力の後で、「リンクを削除するための実質的で誠実な努力」を実証するために他に何ができるかについて、私は途方に暮れています。 以下は、これまでに私たちが取った行動の要約です。 http://removeem.comによると、約5584のバックリンクドメインがありました。 それらのうち、正常に接続し、344個のドメインからリンクを削除しました 625のドメインからのリンクは、正当なプレスリリース、自然なバックリンク、または私たちを指すフッターに属性リンクを含むクライアントウェブサイトのいずれかであるため、無視しました。 私たちの努力またはサイトが単に機能しなくなったため、removem.comは3262ドメインからのリンクが削除されたと報告しています。 連絡を取りましたが、まだ1666ドメインからフィードバックを受け取っていないため、バックリンクが残っていると想定できます。 これらの1666ドメインからの各リンクに対して、http://redirects.sanscode.com/を指すように自動301リダイレクトを構成しました。これは、Bad Link Catcher(天才的なストロークだと思います)と呼んでいます。つまり、http://www.mysimplewebdesign.com/create-a-perfect-webpage-with-four-important-tips-from-sydney-web-development-service-companies.php 私たちはウェブデザイン代理店であるため、フッターに私たちを指す属性リンクを含む多くのクライアントウェブサイトがあります。これらの大部分を通過し、これらのリンクを更新してアンカーテキストを画像とrel = "nofollow"リンクに置き換えました。 すなわち <a rel="nofollow" target="_blank" href="http://www.cyberdesignworks.com.au/"><img src="https://sessions.sanscode.com/site/assets/media/badges/Badge_CDW_SANSCODE.png"></a> http://www.milkatwork.com.au/を参照してください http://removeem.comからのエクスポートで、各リンクにアクセスした回数と、リンクがまだ見つかるかどうかの詳細も、再送信ごとに提供されました。 Google Web Master Toolsで報告されたバックリンクの総数は10万件以上から87万件に減少しました。Googleが各バックリンクページを再クロールすると、大幅に低下すると予想しています。 上記のすべてに基づいて、「リンクを削除するための実質的で誠実な努力」を実証するために他に何ができるかわかりません。 私はアイデアが足りないので、フィードバックや提案をいただければ幸いです。

2
Googleウェブマスターツールから、ロボットがサイトマップへのアクセスをブロックしていることがわかります
これは私のrobots.txtです: User-agent: * Disallow: /wp-admin/ Disallow: /wp-includes/ Sitemap: http://www.example.org/sitemap.xml.gz しかし、Googleウェブマスターツールは、ロボットがサイトマップへのアクセスをブロックしていることを教えてくれます: サイトマップへのアクセス中にエラーが発生しました。サイトマップがGoogleのガイドラインに従っており、指定した場所からアクセスできることを確認してから、再送信してください:robots.txtにより制限されたURL。 Googleウェブマスターツールがrobots.txtをキャッシュすることを読みましたが、ファイルは36時間以上前に更新されています。 更新: TESTサイトマップを押しても、Googleは新しいサイトマップを取得しません。SUBMITサイトマップだけがそれを行うことができました。(ところで、現在のサイトマップをそこに貼り付けない限り、「テストサイトマップ」の要点はわかりません。テスト前に入力を要求するアドレスからサイトマップの新しいコピーを取得することはありませんが、それは別の日の質問です。) 新しいサイトマップを(テストではなく)送信した後、状況が変化しました。「robots.txtによってブロックされたURLです。サイトマップにはrobots.txtによってブロックされたURLが含まれています」と表示されます。44 URL。サイトマップには正確に44のURLがあります。このGoogleは新しいサイトマップを使用しているが、それはまだ(立ち入り禁止のすべてを保持する)古いロボット規則によって起こっていないことを意味 44のURLのいずれもしている/wp-admin/か/wp-includes/いるので、とにかく種類が不可能のである(robots.txtのは、上に構築されますサイトマップを作成するのと同じプラグインによるフライ)。 アップデート2: さらに悪いことに、Google検索結果ページでは、ホームページの説明に「このサイトのrobots.txtがあるため、この結果の説明はありません–詳細」と表示されます。他のすべてのページには詳細な説明があります。ホームページのrobots.txtまたはrobotsメタブロックインデックスはありません。 行き詰まっています。

弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.