Startseite | Wissen | Glossar | robots.txt
Robots.txt ist eine Textdatei auf einer Website, die Suchmaschinenrobotern (auch als Bots oder Spiders bezeichnet) Anweisungen gibt, welche Bereiche der Website indexiert werden dürfen und welche nicht. Es handelt sich um eine wichtige Datei für das SEO (Search Engine Optimization), da sie Einfluss darauf hat, wie Suchmaschinen den Inhalt einer Website verstehen und indizieren.
Die robots.txt-Datei steuert den Zugriff von Web-Crawlern auf eine Website. Durch spezifische Regeln, wie „Disallow“ und „Allow“, legt sie fest, welche Teile der Website von Suchmaschinen indexiert werden dürfen oder nicht. Diese Textdatei folgt einer definierten Syntax und wird im Stammverzeichnis einer Website platziert. Die korrekte Konfiguration ermöglicht Website-Betreibern die gezielte Steuerung der Indexierung und Sichtbarkeit ihrer Inhalte in Suchmaschinen.
Eine einfache Robots.txt-Datei könnte so aussehen:
User-agent: *
Disallow: /vertrauliches/
Allow: /oeffentlich/
Diese Anweisungen bedeuten, dass alle Bots für den Pfad „/vertrauliches/“ keinen Zugriff haben sollten, während der Pfad „/oeffentlich/“ erlaubt ist.