- Robots.txt
-
Nach der Übereinkunft des Robots-Exclusion-Standard-Protokolls liest ein Webcrawler (Robot) beim Auffinden einer Webseite zuerst die Datei robots.txt (kleingeschrieben) im Stammverzeichnis (Root) einer Domain. In dieser Datei kann festgelegt werden, ob und wie die Webseite von einem Webcrawler besucht werden darf. Website-Betreiber haben so die Möglichkeit, ausgesuchte Bereiche ihrer Webpräsenz für (bestimmte) Suchmaschinen zu sperren. Das Protokoll ist rein hinweisend und ist auf die Mitarbeit des Webcrawlers angewiesen. Man spricht hier auch von „freundlichen“ Webcrawlern. Ein Ausgrenzen bestimmter Teile einer Webpräsenz durch das Protokoll garantiert keine Geheimhaltung, dazu sind Seiten oder Unterverzeichnisse eines Servers über eine .htaccess-Datei zu schützen. Manche Suchmaschinen zeigen die vom Webcrawler gefundenen URLs trotzdem in den Suchergebnisseiten an, jedoch ohne Beschreibung der Seiten.
Das Protokoll wurde 1994 von einer unabhängigen Gruppierung entwickelt, ist inzwischen jedoch allgemein anerkannt und kann als Quasi-Standard betrachtet werden. Mit ACAP 1.0 (Automated Content Access Protocol) wurde am 30. November 2007 eine mögliche Erweiterung des Robots Exclusion Standards veröffentlicht. Anfang Juni 2008 bekannten sich Google[1], Microsoft und Yahoo zu einigen Gemeinsamkeiten. [2]
Inhaltsverzeichnis
Aufbau
Die Datei robots.txt ist eine Textdatei in einem einfach lesbaren Format. Jede Zeile besteht aus zwei Feldern, die durch einen Doppelpunkt getrennten werden.
User-agent: Sidewinder Disallow: /
Die erste Zeile beschreibt den Webcrawler (hier:
User-agent
), an den sich die darauf folgenden Regeln richten. Es darf beliebig viele solcher Blöcke geben. Webcrawler lesen die Datei von oben nach unten und halten an, wenn sich ein Block auf sie bezieht. Nach einem Block, dessen erste Zeile mitUser-agent: *
beginnt, stoppt ein Webcrawler und liest den Rest der Datei nicht mehr. Also sollten in der Datei zuerst die Blöcke für spezielle Webcrawler stehen und als letztes der Block für alle. Für jede URL, die ausgeschlossen ist, existiert eine eigene Zeile mit demDisallow
-Befehl. Leerzeilen sind nur oberhalb vonUser-agent
-Zeilen erlaubt. Sie trennen die Blöcke voneinander. Einzeilige, mit einem Rautenzeichen (#) beginnende Kommentare sind an jeder Stelle möglich. Sie dienen der Übersichtlichkeit und werden vom Webcrawler ignoriert.Anweisung Beschreibung Beispiel Funktion User-agent:
Spezifizierung des Webcrawlers User-agent: Sidewinder
Gilt nur für den Webcrawler namens „Sidewinder“ User-agent: *
Wildcard für User-agent; gilt für alle Webcrawler Disallow:
Auslesen nicht gestatten Disallow:
Kein Ausschluss; die komplette Webpräsenz darf durchsucht werden Disallow: /
Die komplette Webpräsenz darf nicht durchsucht werden Disallow: /Temp/
Disallow: /default.html
Das Verzeichnis „Temp“ und die Datei „default.html“ dürfen nicht durchsucht werden $
Zeilenende-Anker (nur Googlebot, Yahoo! Slurp, msnbot) Disallow: /*.pdf$
Alle PDF-Dateien werden ignoriert ?
URLs mit '?' behandeln (nur Googlebot) Disallow: /*?
Alle URLs die ein '?' enthalten werden ignoriert Allow: /*?$
Alle URLs die mit einem '?' enden werden erlaubt Allow:
Auslesen erlauben (nur Ask.com, Googlebot, Yahoo! Slurp) Disallow: /
Allow: /public
Nur das Verzeichnis „/public“ darf durchsucht werden, der Rest nicht Crawl-delay:
Auslesegeschwindigkeit (nur Yahoo! Slurp, msnbot) Crawl-delay: 120
Nur alle 120 Sekunden darf eine neue Seite zum Auslesen aufgerufen werden. Sitemap:
URL der Sitemap (nur Googlebot, Yahoo! Slurp, msnbot, Ask.com) Sitemap: http://example.com/sitemap.xml
Die Sitemap gemäß dem Sitemap-Protokoll liegt unter der angegebenen Adresse. Beispiele
# robots.txt für meineseite.com # Diese Webcrawler schließe ich aus User-agent: Sidewinder Disallow: / User-agent: Microsoft.URL.Control Disallow: / # Diese Verzeichnisse/Dateien sollen nicht durchsucht werden User-agent: * Disallow: /default.html Disallow: /Temp/ # diese Inhalte verschwinden bald Disallow: /Privat/Familie/Geburtstage.html
Mit den folgenden Befehlen wird die komplette Webpräsenz vor einer Indexierung durch Webcrawler gesperrt.
User-agent: * Disallow: /
Weiteres Beispiel: robots.txt von Wikipedia
Meta-Tags
Webcrawler können auch durch Meta-Tags im HTML-Quelltext einer Webseite am Indexieren gehindert werden. Auch Meta-Tags sind rein hinweisend, benötigen die Mitarbeit „freundlicher“ Webcrawler und garantieren keine Geheimhaltung. Soll der Suchroboter die Webseite weder in den Index der Suchmaschine aufnehmen, noch den Hyperlinks der Seite folgen, lautet der Meta-Tag
<meta name="robots" content="noindex,nofollow" />
In HTML-Dokumenten, für die beides erlaubt sein soll, kann die Angabe entweder weggelassen oder explizit notiert werden:
<meta name="robots" content="all" />
Siehe: W3C Recommendation "Robots and the META element"
Anmerkungen
- ↑ Verbesserungen des Robots-Exclusion-Protokolls, Google-Blog Webmaster Zentrale, 10. Juni 2008
- ↑ Everything You Wanted To Know About Blocking Search Engines, searchengineland.com, 12. Juni 2008
Siehe auch
Literatur
- Ian Peacock, Showing Robots the Door, What is Robots Exclusion Protocol?, Ariadne, May 1998, Issue 15, Webversion
Weblinks
- The Web Robots Pages (englisch)
- Die Datei robots.txt der Wikipedia
- robots.txt – Robots kontrollieren Erläuterungen zur Datei robots.txt bei SELFHTML
- Google.de: Googlebot: Der Web-Crawler von Google, Wollen Sie etwas aus Googles Index entfernen?
- Google.com: spezielle Googlebot Syntax-Erweiterungen (englisch)
- ACAP − Automated Content Access Protocol (Erweiterung/Weiterentwicklung; engl.)
Wikimedia Foundation.