Webcrawler
Webcrawler – Definition & Erklärung
Ein Webcrawler (eng. Webcrawler = Web-Kriecher) ist eine automatisierte Software zum Einlesen von Inhalten & Webseiten im Internet. Suchmaschinen wie Google nutzen einen solchen Crawler um Webseiten zu finden, die Inhalte zu lesen und anschließend auszuwerten. Ein anderer Begriff für den Webcrawler ist auch Spider, Webbot oder Robot. Der Crawler arbeitet mit Hilfe von Webdesignern & Webmastern und deren ROBOTS.TXT und SITEMAP.XML Dateien – so kann beispielsweise dem Crawler nicht gestattet sein, bestimmte Unterseiten zu indexieren bzw. zu betreten.
Mehr dazu:
Google-Crawler Searchconsole Webseite