/
robots.txt anpassen und optimieren

robots.txt anpassen und optimieren

Mit der robots.txt werden Bots (s.g. Crawler) von Suchmaschinen angewiesen, bestimmte Bereich oder Seiten nicht zu besuchen bzw. zu indexieren. Damit kann unter anderem auch das Crawl-Budget geschützt werden.

Weitere Informationen dazu

Der Aufruf im Multishop ist immer

.../robots.txt

bspw.: https://multishop.ede-shop.de/robots.txt

 

Standardmäßig wird davon ausgegangen, dass ein User-Agent alle Seiten und Verzeichnisse crawlen darf, die nicht durch eine disallow-Regel blockiert sind.

Disallow-Regel

Sollten bereits Seiten in der Suchmaschine indexiert sein, welche zukünftig ausgeschlossen werden sollen, dann müssen diese zuerst aus dem Index entfernt werden. Das ist möglich indem die Noindex-Regel so lange in der robots.txt enthalten bleibt, bis die indexierten Einträge entfernt sind. Danach kann die noindex-Regel zur disallow-Regel geändert werden.

Login und Checkout-Bereiche soll kein Agent crawlen

User-agent: * Disallow: /bestellen.php User-agent: * Disallow: /anmelden.php User-agent: * Disallow: /warenkorb.php User-agent: * Disallow: /administration.php User-agent: * Disallow: /myshop.php

 

Such-Resultat-Seiten soll kein Agent crawlen

User-agent: * Disallow: /?*searchstring= User-agent: * Disallow: /search3.php User-agent: * Disallow: /suche/

 

Related content