Mám dynamický web, který má mnoho (dobře, méně než 50) uživatelů. Každý uživatel smí vytvořit tolik stránek, kolik chce. Vím, že existuje limit, kolik stránek můžete být uvedeny v souboru sitemap.xml, a prozatím jsem pod tímto limitem, ale rád bych věděl, jaký je nejlepší způsob, jak umožnit vyhledávačům vědět (vše?) O stránky mého uživatele, i když jsou stále pod tímto limitem, i když mám více než tento limit.
Soubory souborů Sitemap mají limit 50 000 adres URL a 10 megabajtů na soubor Sitemap. Soubory Sitemap lze komprimovat pomocí gzip, což snižuje spotřebu šířky pásma. Podporováno je více souborů Sitemap, indexový soubor Sitemap slouží jako vstupní bod pro celkem 1 000 souborů Sitemap.
Všimněte si, že můžete zadat více souborů Sitemap v souboru robots.txt :
Pokud narážíte na omezení, možná své uživatele nějak nějak rozdělí. Řekněme, že každý z vašich uživatelů nemá více než 10 000 adres URL, můžete jej rozdělit do souborů a přidat do svého souboru robots.txt
:
Sitemap: http://www.example.com/sitemaps/users-001-005.xml
Sitemap: http://www.example.com/sitemaps/users-006-010.xml
Sitemap: http://www.example.com/sitemaps/users-011-015.xml
Sitemap: http://www.example.com/sitemaps/users-016-020.xml
Sitemap: http://www.example.com/sitemaps/users-021-025.xml
Sitemap: http://www.example.com/sitemaps/users-026-030.xml
Sitemap: http://www.example.com/sitemaps/users-031-035.xml
Sitemap: http://www.example.com/sitemaps/users-036-040.xml
Sitemap: http://www.example.com/sitemaps/users-041-045.xml
Sitemap: http://www.example.com/sitemaps/users-046-050.xml
Nyní byste měli mít stále na paměti limit 10 MB pro každý jednotlivý soubor Sitemap, ale toto je přístup k řešení problému „příliš mnoho“ adres URL.
Více souborů Sitemap v akci najdete v souborech CNN a Googlerobots.txt
.