it-swarm-eu.dev

SEO: Duplicitní obsah způsobený stránkováním / značkami / indexovými stránkami

Možný duplikát:
Co je duplicitní obsah a jak se mohu vyhnout penalizaci za to na mém webu?

Četl jsem, že bych měl použít značku NoIndex pro přechodné stránky, jako jsou stránky indexu, stránkování nebo značky. Je to pravda? Mám blog Tumblr, který zvažuji vložit NoIndex na stránky indexu, vyhledávání, značky, stránkování a data.

Je NoIndex dost, nebo existují jiné metody? Měla by být indexová stránka webu označena jako NoFollow? To opravdu nezní příliš dobře.

Na jaké stránky byste umístili NoIndex?

3
Jiew Meng

Pokud více adres URL stránek produkuje stejný obsah, je to přesně to, k čemu <link rel="canonical"> . Je to pro sdělování vyhledávačům, že obsah více adres URL je stejný a použít tento konkrétní jako primární. Tím se zcela vyhnete problémům s duplicitou a je to velmi jednoduché.

3
John Conde

Ne, neměli byste zastavit vyhledávací nástroje v indexování stránkování nebo stránek se značkami. (A rozhodně ne vaše indexová stránka!) U blogů nebo webů bez jasné struktury nabídek je to hlavní způsob, jak najdou váš obsah.

Vyhledávače častěji než tyto stránky dokážou tyto stránky dobře zpracovat a objevit váš nejdůležitější obsah, tj. Samotné položky blogu.

Pokud si však všimnete, že tyto stránky seznamu jsou indexovány více než blogové příspěvky, doporučuji vám zablokovat indexování „nekonečných konfigurací“, například třídění podle popularity. Nebo cokoli, kde jsou stejné položky uvedeny v různých pořadích - umožňují indexování jednoho rozumného pořadí a zbytek ignorovat.

2
DisgruntledGoat

Neexistuje nic, co by bránilo každému robotovi v pavouku na jakékoli stránce na vašem webu, pokud tomu tak není násilně zabráněno.

Jak již bylo řečeno, vždy můžete povzbudit robota sledovat a indexovat, co chcete/nechcete. Některé z těchto metod zahrnují:

  • Vytvoření souboru robots.txt a jeho umístění do kořenového adresáře.
  • Správné nastavení všech možností mezipaměti response header pro každý zdroj.
  • Vytvoření dokumentu sitemap.xml pouze se stránkami, které chcete mít pavouky.
  • Konzistentní kapitalizace. Mnohokrát všechno malé písmeno zabrání duplikům s velkými/malými písmeny.
  • Vyhněte se předávání proměnných $_GET v adrese URL, pokud pravdivě nevytvoří jedinečná data. (například www.abc.com/index.php?session=21389271893219 použijte místo toho $_POST).
  • Ne mající duplicitní obsah. (zkuste tomu zabránit mod_rewrite a/nebo přesměrování)
  • Pomocí detekce botů poslat 404 NOT FOUND na tyto stránky a 200 nebo přesměrovat na živé uživatele. (301s jsou diskutabilní)
  • Používání nástrojů pro webmastery Google k zabránění zobrazování stránek ve výsledcích vyhledávání. (i když je to obvykle řešení poslední instance.)
  • Vyhněte se kódování/kódování adres URL UTF-8, budou kanonizovat.
  • Používejte řádnou správu relací, abyste zabránili přímému přístupu k bezpečným informacím.

Je jich víc, ale funguje to pro 99% většiny všeho. Trik je dobrý návrh výchozího adresáře URL.

1
Talvi Watia