Mám docela velký odkaz s doslova tisíci PDF, které někdy účtují v databázi, ale často jsou to jen odkazy na stránce a jsou uloženy ve většině všech adresářů na webu.
Napsal jsem prohledávač php, abych sledoval všechny odkazy na mém webu, a pak to porovnávám s výpisem struktury adresářů, ale je něco jednoduššího?
Použil jsem Xenu's Link Sleuth . Funguje to docela dobře, jen se ujistěte, že DOS sami!
Pokud používáte Windows 7, nejlepším nástrojem je SEO Toolkit 1.0 IIS7. Je to zdarma a můžete si jej zdarma stáhnout.
Nástroj prohledá jakýkoli web a řekne vám, kde jsou všechny mrtvé odkazy, jaké stránky trvat dlouho, než se načtou, jaké stránky mají chybějící tituly, duplicitní tituly, stejné pro klíčová slova a popisy a jaké stránky mají nefunkční HTML.
Zkuste W3C je open source nástroj Link Checker . Můžete jej použít online nebo nainstalovat lokálně
Existuje několik produktů z Microsys , zejména jejich A1 Sitemap Generator a A1 Website Analyzer , které budou procházet váš web a hlásit vše, co si můžete představit to.
To zahrnuje nefunkční odkazy, ale také tabulkové zobrazení všech vašich stránek, takže můžete porovnat věci jako identické tagy <title> a meta description, nofollow odkazy, meta noindex na webových stránkách a spoustu nemocí, které vyžadují ostré oko a rychlá ruka opravit.
Link Examiner je opravdu dobrý freeware také pro vaši potřebu.
Jsem velkým fanouškem linklint pro linkchecking velkých statických webů, pokud máte kolem příkazového řádku unix (I ' používá se na linuxu, MacOSu a FreeBSD). Pokyny k instalaci najdete na jejich webu. Po instalaci vytvořím soubor s názvem check.ll
a udělám:
linklint @check.ll
Jak vypadá můj soubor check.ll
# linklint
-doc .
-delay 0
-http
-htmlonly
-limit 4000
-net
-Host www.example.com
-timeout 10
To provádí procházení www.example.com
a generuje soubory HTML s křížovými odkazy na zprávy o tom, co je poškozené, chybí atd.