robots.txt
Die robots.txt ist eine Textdatei im Stammverzeichnis einer Website, die Suchmaschinen-Crawlern mitteilt, welche Bereiche der Website sie besuchen duerfen und welche nicht.
robots.txt im Detail
Die robots.txt ist eine kleine, aber maechtige Textdatei, die im Stammverzeichnis Ihrer Website liegt (z. B. www.ihre-seite.de/robots.txt). Sie gibt Suchmaschinen-Crawlern Anweisungen, welche Seiten und Verzeichnisse sie crawlen duerfen und welche sie ignorieren sollen.
Eine typische robots.txt enthaelt Anweisungen wie "Disallow: /admin/" (der Admin-Bereich soll nicht gecrawlt werden) oder "Allow: /" (alles darf gecrawlt werden). Zusaetzlich wird hier oft der Verweis auf die XML-Sitemap hinterlegt, damit Suchmaschinen sie leicht finden.
Fuer Unternehmen in Braunschweig ist die robots.txt relevant, weil Fehler in dieser Datei gravierende Auswirkungen haben koennen: Ein versehentliches "Disallow: /" blockiert die gesamte Website fuer Google -- Ihre Seite verschwindet aus den Suchergebnissen. Das passiert haeufiger als man denkt, besonders nach Website-Relaunchs oder bei Websites, die von der Staging- in die Live-Umgebung verschoben werden.
Wichtig zu verstehen: Die robots.txt ist eine Empfehlung, keine Sicherheitsmassnahme. Serioese Suchmaschinen wie Google halten sich daran, aber boesartige Bots koennen sie ignorieren. Vertrauliche Inhalte sollten daher nie nur ueber robots.txt geschuetzt werden, sondern durch Passwortschutz oder Serverkonfiguration.
Ein Praxisbeispiel: Ein Braunschweiger Online-Shop hat versehentlich seinen gesamten Produktkatalog per robots.txt blockiert. Die Folge: Alle Produktseiten fallen aus dem Google-Index. Erst ein Audit deckt den Fehler auf -- nach der Korrektur kehren die Rankings innerhalb weniger Wochen zurueck.
Verwandte Begriffe
Suchmaschinenoptimierung (SEO)
Suchmaschinenoptimierung (SEO) ist die systematische Verbesserung einer Website, um in den organischen Suchergebnissen von Google und anderen Suchmaschinen besser gefunden zu werden.
Indexierung
Indexierung ist der Prozess, bei dem Google eine Webseite in seinen Suchindex aufnimmt. Nur indexierte Seiten koennen in den Suchergebnissen erscheinen.
Crawling
Crawling ist der automatische Prozess, bei dem Suchmaschinen-Bots (wie der Googlebot) Webseiten besuchen, deren Inhalte lesen und Links verfolgen, um neue oder aktualisierte Seiten zu entdecken.
Sitemap (XML)
Eine XML-Sitemap ist eine strukturierte Datei, die Suchmaschinen eine vollstaendige Liste aller wichtigen Seiten einer Website liefert und so die Indexierung erleichtert.
Passende Leistung
Brauchen Sie professionelle Unterstützung im Bereich robots.txt?
robots.txt pruefen und optimierenFragen zu robots.txt?
Wir erklären Ihnen gerne alles im Detail und zeigen, wie Sie das für Ihr Unternehmen nutzen können.
Kostenlos beraten lassen