サイトをクロールし、デッドリンクとリンクされていないファイルを見つけるのに役立つツール[終了]


21

文字通り何千ものPDFを含むかなり大きなレガシーサイトがあります。これらのPDFは時々データベースで処理されますが、多くの場合、ページ上の単なるリンクであり、サイト上のほとんどすべてのディレクトリに格納されます。

自分のサイトのすべてのリンクをたどるphpクローラーを作成し、それをディレクトリ構造のダンプと比較していますが、もっと簡単なことはありますか?


webmasters.stackexchange.com/questions/13310/も参照してください。スペルチェックについても尋ねています。
ジェームズスケムプ

回答:


15

XenuのLink Sleuthを使用しました。うまく動作します。DOSを使用しないでください。


1
オプションの[Orphan files]オプションをチェックすると、サイトへのftpログインを求めるプロンプトが表示されます。

これにより、ページにアクセスするためにログインする必要があるサイトも処理されますか?
ドニーV。10年

@Jim壊れたリンクがどのページにあるかをどのように確認できますか?
ロブ

クロールが完了すると、情報を示すレポートが表示されます。サイトのサイズと壊れたリンクの数によっては、解析が困難になる場合があります。通常、クロールの前にレポートオプションを調整し、レポートをテキストファイル(.htmであるため)として開き、管理しやすいように関係のないものを削除します。お役に立てれば。
plntxt

6

Windows 7を使用している場合、最適なツールはIIS7のSEO Toolkit 1.0です。無料で、無料でダウンロードできます。

このツールは、すべてのサイトをスキャンし、すべてのデッドリンクがどこにあるか、どのページがロードに時間がかかるか、タイトルが欠落しているページ、タイトルが重複していること、キーワードと説明が同じであること、HTMLが壊れているページを示します。


1
私はこれを個人的に使用しましたが、スキャンおよびもちろんSEOには優れていますが、XenuのFTPチェックはこれに勝ります。
-MrChrister


1

Unixのコマンドラインがあれば(私はLinux、MacOS、およびFreeBSDで使用しています)、大規模な静的サイトのリンクチェックのlinklintの大ファンです。インストール手順については、サイトを参照してください。インストールしたら、というファイルを作成して実行check.llします。

linklint @check.ll

check.llファイルは次のようになります

# linklint
-doc .
-delay 0
-http
-htmlonly
-limit 4000
-net
-host www.example.com
-timeout 10

それはクロールをwww.example.com行い、壊れているもの、欠落しているものなどの相互参照レポートを含むHTMLファイルを生成します。


1

Microsysのいくつかの製品、特にA1 Sitemap GeneratorおよびA1 Website Analyzerは、Webサイトをクロールし、想像できるすべてをレポートします。

これには、壊れたリンクだけでなく、すべてのページのテーブルビューも含まれるため、同一の<title>タグとメタ説明タグ、nofollowリンク、Webページのメタnoindex、鋭い目だけが必要な多くの病気などを比較できます。簡単に修正できます。


弊社のサイトを使用することにより、あなたは弊社のクッキーポリシーおよびプライバシーポリシーを読み、理解したものとみなされます。
Licensed under cc by-sa 3.0 with attribution required.