Robots.txt
Robots.txt je soubor instrukcí, který určuje, jaké části webu mohou nebo nemohou roboti vyhledávačů (tzv. crawlery) prohledávat. Soubor je uložen v kořenovém adresáři domény a je to první dokument, který vyhledávač otevře při návštěvě webu. Pomocí tohoto jednoduchého souboru je možné vyloučit z prohledávání domény, adresáře či jednotlivá videa, obrázkové nebo PDF soubory. Soubor může sloužit také k zákazu indexace webu a nebo k omezení procházení. Do souboru se také začleňuje odkaz na mapu webu sitemap.xml, který poskytuje vyhledávačům přehled o všech existujících adresách URL domény.
Co vše lze s pomocí robots.txt vyřešit?
- Omezení přístupu robotů k celému webu (např. při větších úpravách webu).
- Skrytí vybraných stránek / souborů (nedokončených, soukromých apod.).
- Omezení konkrétního robota, který přetěžuje server.
- Omezení robotů k přístupu k odkazům na webu (ankety, kalendáře akcí apod.).
- Zákaz procházení stránek s duplicitním obsahem.
- Usnadnění přístupu k sitemap souborům.
K vytvoření souboru je potřeba libovolný textový editor. Do něj se pak na samostatné řádky vkládají direktivy, jak se mají roboti na webu chovat. Nezvládnete si s robots.txt poradit sami? Kontaktujte nás a vyřešíme to za vás.