Eine Robots.txt Datei enthält Regeln für Suchmaschinen-Crawler, die festlegen, welche Teile einer Website durchsucht werden dürfen und welche nicht. Dies wird durch spezifische Befehle wie 'Disallow' und 'Allow' erreicht, die auf bestimmte User-Agents (Crawler) angewendet werden. Die Datei muss im Hauptverzeichnis der Domain platziert sein, um wirksam zu sein.