Googlebot verstehen: Crawling, Rendering und typische SEO-Fehler
Googlebot ist der Crawler von Google. Er ruft Seiten ab, folgt Links, verarbeitet Ressourcen und liefert die Grundlage dafür, dass Inhalte in der Google-Suche gefunden, gerendert und später indexiert werden können.
In der Praxis ist Googlebot weniger ein mystisches Wesen als ein sehr technischer Besucher: Er braucht saubere Statuscodes, crawlbare interne Links, stabile Ressourcen, verständliche Canonicals und möglichst wenig unnötige Sackgassen.
Wer Googlebot helfen will, sollte nicht „für Bots schreiben“, sondern saubere Architektur schaffen: klare interne Links, stabile Serverantworten, indexierbare Zielseiten und möglichst wenig widersprüchliche Signale zwischen Canonical, Robots und Sitemaps.
Was Googlebot konkret macht
- ruft URLs ab und folgt internen wie externen Links
- prüft Statuscodes, Weiterleitungen und Ziel-URLs
- interpretiert HTML, Metadaten und strukturierte Signale
- rendert moderne Seiten teilweise erst in einem zweiten Schritt
- entscheidet nicht allein über Rankings, aber über Auffindbarkeit und technische Verarbeitbarkeit
Typische Blocker für Googlebot
- 404/500-Fehler
- lange Redirect-Ketten
- robots.txt-Sperren
- noindex auf wichtigen Templates
- schwache interne Verlinkung
- JS-Navigation ohne crawlbare Links
- sehr langsame Serverantworten
- widersprüchliche Canonicals
Warum Rendering und Ressourcen wichtig sind
Viele Seiten werden heute erst nach dem initialen HTML per JavaScript vollständig aufgebaut. Für Googlebot bedeutet das: Wenn Navigation, Inhalte oder Meta-Signale erst spät erscheinen, kann es zu Verzögerungen oder Missverständnissen kommen. Kritische Inhalte sollten deshalb möglichst früh und stabil im HTML oder zumindest serverseitig verfügbar sein.
Quick Wins für Crawling und Indexierung
- XML-Sitemaps auf echte kanonische 200er-URLs begrenzen
- wichtige Seiten intern mehrfach und crawlbar verlinken
- Robots, Canonical und Indexierbarkeit aufeinander abstimmen
- Fehlerhafte Redirects, 5xx-Spitzen und tote Pfade beheben
FAQ: Googlebot
Nein. Googlebot ist vor allem für Abruf und Verarbeitung wichtig. Rankings hängen zusätzlich von Relevanz, Autorität und Suchintention ab.
Typische Signale sind nicht indexierte Seiten, Crawl-Fehler, starke Verzögerungen nach Änderungen oder wichtige URLs, die kaum gecrawlt werden.
Sie hilft bei Discovery und Priorisierung, ersetzt aber keine gute interne Verlinkung und keine saubere Technik.