Was ist das Crawl Budget? Es ist die begrenzte Anzahl von Seiten, die Google innerhalbs eines Zeitraums auf deiner Website crawlt. Dieses Budget wird durch die Serverkapazität (Crawl Rate) und die Wichtigkeit/Aktualität deiner Seite (Crawl Demand) bestimmt.
Warum optimieren? Wenn Google zu viel Zeit mit unwichtigen URLs (z. B. Filterseiten, Tags, Archive) verbringt, werden deine wichtigen, neuen Inhalte langsamer entdeckt und indexiert.
Wichtigste Hebel zur Optimierung:
Blockieren: Unwichtige Bereiche per robots.txt vom Crawling ausschließen.
Priorisieren: Wichtige Seiten durch starke interne Verlinkung hervorheben.
Aufräumen: Crawl-Fehler (404) beheben und Weiterleitungsketten vermeiden.
Stell dir vor, du veröffentlichst brandneue, hochwertige Inhalte oder aktualisierst deine wichtigsten Kategorieseiten im Shop. Doch anstatt schnell in den Google-Suchergebnissen aufzutauchen, passiert tagelang … nichts. Deine Seiten werden einfach nicht indexiert. Ein häufiger Grund dafür ist ein ineffizient genutztes Crawl Budget.
Google hat begrenzte Ressourcen. Es kann nicht jede einzelne URL im Internet täglich besuchen. Wenn der Googlebot seine Zeit damit verschwendet, unwichtige Seiten deiner Website zu durchforsten – wie alte Tag-Seiten, irrelevante Suchfilterkombinationen oder endlose Kalenderarchive – bleibt weniger Zeit für die Inhalte, die wirklich ranken sollen.
Genau hier setzt die Crawl Budget Optimierung an. Es geht darum, Google gezielt zu den Goldstücken deiner Website zu führen und die „Zeitfresser“ auszusperren. In diesem Guide erfährst du, wie du das Crawling steuerst, die Effizienz deiner Website steigerst und sicherstellst, dass deine wichtigen Seiten die Aufmerksamkeit bekommen, die sie verdienen.
Das Crawl Budget ist die Anzahl der URLs, die der Googlebot innerhalbs eines bestimmten Zeitraums auf deiner Website crawlen kann und will. Es ist keine feste Kennzahl, die man irgendwo einsehen kann, sondern ein dynamisches Konzept, das sich aus zwei Hauptkomponenten zusammensetzt:
Crawl Rate Limit (Crawling-Kapazität): Dies ist die technische Grenze, wie viele Anfragen der Googlebot an deinen Server senden kann, ohne dessen Leistung zu beeinträchtigen. Google analysiert die Serverantwortzeiten (Site Health). Ein schneller, stabiler Server erlaubt eine höhere Crawl Rate.
Crawl Demand (Crawling-Nachfrage): Dies bestimmt, wie oft Google deine Website besuchen möchte. Die Nachfrage steigt mit der Popularität (z. B. viele hochwertige Backlinks) und der Aktualität (wie oft werden Inhalte aktualisiert?) deiner Website.
Einfach gesagt: Wenn deine Website als unwichtig eingestuft wird oder dein Server langsam ist, schaut Google seltener vorbei und crawlt weniger Seiten pro Besuch.
Warum ist das Crawl Budget wichtig für SEO?
Die Optimierung des Crawl Budgets ist entscheidend, da Crawling die Voraussetzung für die Indexierung ist. Wenn eine Seite nicht gecrawlt wird, kann sie nicht indexiert werden und somit auch nicht in den Google-Suchergebnissen ranken.
Für kleine Websites mit wenigen hundert URLs ist das Crawl Budget selten ein akutes Problem. Kritisch wird es jedoch in folgenden Szenarien:
Große E-Commerce-Shops: Websites mit Tausenden von Produkten und unzähligen Filterkombinationen (facettierte Suche) können Millionen von potenziellen URL-Varianten erzeugen. Wenn Google versucht, jede Kombination zu crawlen (z. B. „rote Schuhe, Größe 42, Marke X, sortiert nach Preis“), wird das Budget schnell aufgebraucht.
Große Content-Portale und Blogs: Ähnliche Probleme entstehen durch Tag-Seiten, Kategorie-Seiten und Datumsarchive, die oft ähnliche Inhalte auflisten und wenig einzigartigen Mehrwert bieten.
Website-Relaunches und Migrationen: Bei einem Relaunch muss Google die neue Struktur verstehen. Wenn viele Weiterleitungen (Redirects) oder Fehler (404-Seiten) auftreten, wird das Crawling ineffizient und die Neuindexierung verzögert sich.
Wie oft crawlt Google eine Website?
Die Crawl-Frequenz hängt stark von der Crawl Demand ab. Es gibt keine pauschale Antwort wie „einmal pro Woche“. Die Frequenz wird von folgenden Faktoren beeinflusst:
Popularität und Autorität: Wichtige, autoritäre Websites (wie Nachrichtenportale oder Branchenführer) werden oft mehrmals täglich gecrawlt, da Google frische Inhalte erwartet.
Aktualisierungsrate: Wenn du täglich neue Blogartikel veröffentlichst, lernt Google, häufiger vorbeizuschauen. Wenn deine Seite monatelang statisch bleibt, sinkt die Crawl-Frequenz.
Interne Verlinkung: Seiten, die prominent von der Startseite oder wichtigen Kategorieseiten verlinkt sind, werden häufiger gecrawlt als Seiten, die tief in der Seitenarchitektur vergraben sind.
Wo sehe ich das? Einen Einblick in das Crawling-Verhalten erhältst du im Crawl-Statistik-Bericht in der Google Search Console (GSC). Für eine detaillierte Analyse ist jedoch eine Logfile-Analyse notwendig, die genau zeigt, welche URLs der Googlebot wie oft besucht hat.
Welche Faktoren beeinflussen das Crawl Budget negativ?
Verschiedene technische Aspekte können dein Crawl Budget unnötig belasten. Bevor du optimierst, solltest du die Hauptursachen für Verschwendung identifizieren:
Duplicate Content: Identische oder sehr ähnliche Inhalte unter verschiedenen URLs (z. B. durch Parameter oder Session-IDs) verwirren den Crawler und verbrauchen Budget für redundante Seiten.
Minderwertige URLs (Low-Value Pages): Seiten ohne echten Mehrwert für den Nutzer, wie leere Kategorieseiten, interne Suchergebnisseiten oder automatisch generierte Archive.
Fehlerhafte Weiterleitungen: Lange Redirect-Ketten (A -> B -> C) verbrauchen bei jedem Schritt Crawl Budget. Auch eine hohe Anzahl von 404-Fehlern kann das Crawling verlangsamen, wenn Google immer wieder versucht, nicht existente Seiten aufzurufen.
Langsame Servergeschwindigkeit: Wenn dein Server lange braucht, um Seiten auszuliefern, reduziert Google die Crawl Rate, um einer Überlastung vorzubeugen.
Fehlende Crawling-Steuerung: Wenn du Google nicht via robots.txt anweist, welche Bereiche ignoriert werden sollen, crawlt der Bot potenziell alles, was er finden kann.
Wie überprüfst Du Dein aktuelles Crawl Budget und identifizierst Probleme?
Bevor wir optimieren, brauchen wir Daten. Blind Optimierungsversuche können nach hinten losgehen. Um das tatsächliche Crawling-Verhalten zu verstehen, ist die Analyse der Server-Logfiles die präziseste Methode. Für die meisten Anwender bietet die Google Search Console jedoch bereits hervorragende und oft ausreichende Einblicke.
Methode 1: Schnellcheck des Index-Bloats (Die „site:“-Abfrage)
Eine sehr schnelle, wenn auch ungenaue Schätzung des Verhältnisses von bekannten zu potenziell problematischen URLs erhältst du über den site: Operator bei Google. Gib site:deine-domain.de bei Google ein.
Vergleiche die Anzahl der Ergebnisse: Wie viele Ergebnisse zeigt Google an? Vergleiche diese Zahl mit der Anzahl der Seiten, die du tatsächlich indexiert haben möchtest.
Mustererkennung im Kleinen: Scrolle durch die Ergebnisse. Entdeckst du hier bereits viele seltsame URLs, PDF-Dateien oder Tag-Seiten, die du dort nicht erwartest? Das ist ein erstes Indiz für Index-Bloat und verschwendetes Crawl Budget.
Screenshot: Google Suche mit „site:“ Abfrage
Methode 2: Der Google Search Console Crawling-Statistikbericht
Der Crawling-Statistikbericht in der Google Search Console (GSC) ist Dein wichtigstes Werkzeug für die laufende Überwachung. Gehe zu Einstellungen > Crawling-Statistiken. Achte auf folgende Punkte:
Crawling-Anfragen insgesamt und Host-Status: Siehst Du plötzliche Einbrüche bei den Anfragen? Überprüfe im Tab „Host-Status“, ob Google Probleme mit der Serververfügbarkeit (DNS, Serverkonnektivität, robots.txt-Abruf) hatte. Wenn dein Server langsam reagiert, drosselt Google die Crawl Rate automatisch.
Crawling nach Antwortcode: Ein hoher Anteil an 404-Fehlern (Nicht gefunden) oder 5xx-Serverfehlern ist ein klares Signal, dass Crawl Budget verschwendet wird. Jede Anfrage, die zu einem Fehler führt, hätte eine wichtige Seite sein können. Klicke in die Fehlerberichte, um Muster zu erkennen: Sind es immer wieder die gleichen, alten Verzeichnisse, die Probleme machen?
Gecrawlte Seitentypen (HTML vs. Sonstige): Werden hauptsächlich HTML-Seiten gecrawlt (gut) oder verschwendet Google unverhältnismäßig viel Zeit mit CSS/JS-Dateien oder Bildern (kann bei sehr großen Websites relevant werden)?
Crawling nach Zweck (Aktualisierung vs. Erkennung): Unterscheide zwischen „Erkennung“ (neue URLs finden) und „Aktualisierung“ (bekannte URLs prüfen). Wenn Google viele Ressourcen für die Aktualisierung von Seiten aufwendet, die sich nie ändern (z.B. alte Blogposts), ist das ineffizient. Prüfe stichprobenartig, ob deine wichtigsten, kürzlich aktualisierten Seiten unter „Aktualisierung“ auftauchen.
Screenshot: Crawling Anfragen in der GSC
Methode 3: Die Logfile-Analyse für Fortgeschrittene
Für eine detaillierte Diagnose gibt es nichts Besseres als Logfiles. Sie zeigen Dir exakt, welche URL der Googlebot wann besucht hat – nicht nur eine Stichprobe wie in der GSC. Tools wie der Screaming Frog Log File Analyser helfen dabei, diese Daten auszuwerten. Hier identifizierst du die größten Budget-Fresser:
Crawling von Parameter-URLs: Findest du unzählige Zugriffe auf URLs mit Filtern oder Sortierparametern (z.B. ?farbe=rot&groesse=xl)? Das ist der häufigste Grund für verschwendetes Budget bei Online-Shops.
Crawling von nicht indexierbaren Seiten: Wie oft crawlt Google Seiten, die per noindex markiert sind oder per Canonical Tag auf andere Seiten verweisen? Häufige Besuche solcher Seiten sind reine Verschwendung.
Crawling-Priorität prüfen: Werden deine wichtigsten Kategorieseiten und Top-Produkte seltener gecrawlt als unwichtige Archivseiten? Dies deutet auf Probleme in der internen Linkstruktur hin.
Redirect-Ketten und 404s: Identifiziere exakt, welche URLs ständig Fehlercodes produzieren und woher die Links auf diese fehlerhaften Seiten kommen.
Crawl Budget optimieren: Die besten Maßnahmen
Die Optimierung des Crawl Budgets zielt darauf ab, dem Googlebot den Weg zu den wichtigsten Inhalten zu erleichtern und ihn von unwichtigen Inhalten fernzuhalten.
1. Unerwünschte URLs identifizieren und blockieren
Der erste Schritt ist die Identifizierung von URLs, die keinen SEO-Mehrwert bieten. Typische Kandidaten sind:
URLs mit Parametern (z. B. Filter, Sortierungen, Session-IDs)
Interne Suchergebnisseiten
Warenkorb- und Checkout-Prozesse
Nutzerprofilseiten und Login-Bereiche
Tag-Seiten mit wenigen Beiträgen oder Duplicate Content
Sobald identifiziert, solltest du den Zugriff für den Googlebot über die robots.txt-Datei sperren.
2. robots.txt richtig einsetzen
Die robots.txt ist das wichtigste Werkzeug zur Steuerung des Crawl Budgets. Sie gibt dem Crawler klare Anweisungen, welche Verzeichnisse oder URLs er nicht besuchen soll.
Beispiel für eine robots.txt zur Crawl-Steuerung:
Wichtig: Eine per robots.txt gesperrte Seite kann trotzdem indexiert werden, wenn sie externe Links erhält. Die Seite erscheint dann ohne Beschreibung im Index („Keine Informationen verfügbar“). Wenn eine Seite komplett aus dem Index entfernt werden soll, ist noindex die richtige Wahl.
3. Canonical & Noindex sinnvoll nutzen
Während robots.txt das Crawling verhindert, steuern Meta-Tags die Indexierung:
Canonical Tag: Verwende das Canonical Tag, um Google bei sehr ähnlichen Seiten (z. B. Produktvarianten) mitzuteilen, welche URL die „Master-Version“ ist. Dies konsolidiert die Linksignale und verhindert Duplicate Content. Google crawlt die Varianten möglicherweise seltener, aber nicht zwangsläufig nie.
Meta Tag noindex: Setze <meta name="robots" content="noindex, follow"> auf Seiten, die gecrawlt werden dürfen (um Links zu folgen), aber nicht im Index erscheinen sollen. Google wird diese Seiten nach einiger Zeit seltener crawlen, um Ressourcen zu sparen.
4. Interne Verlinkung strategisch verbessern
Die interne Verlinkung signalisiert Google die Wichtigkeit deiner Seiten. Wichtige Inhalte sollten:
Wenig Klicks von der Startseite entfernt sein: Eine flache Seitenarchitektur hilft dem Crawler, alle relevanten Inhalte schnell zu erreichen. Eine optimierte Breadcrumb-Navigation ist hierbei ein essenzielles Werkzeug, um sowohl Nutzern als auch Google die Orientierung zu erleichtern und wichtige Seiten zu stärken.
Häufig intern verlinkt werden: Seiten mit vielen internen Links werden als wichtiger eingestuft und häufiger gecrawlt.
Stelle sicher, dass deine Top-Produkte oder Kernthemen prominent verlinkt sind und nicht in der Versenkung verschwinden.
Hygiene ist entscheidend. Überprüfe regelmäßig den GSC-Bericht „Seiten“ auf 404-Fehler (Nicht gefunden) und behebe interne Links, die auf diese toten Seiten zeigen. Wie du Broken Links systematisch findest und behebst, erfährst du in unserem separaten Guide. Vermeide zudem Weiterleitungsketten.Vermeide Weiterleitungsketten. Jede Weiterleitung ist eine zusätzliche Serveranfrage, die das Crawl Budget belastet.
6. Logfile-Analyse als Schlüssel zur Effizienz
Hier trennt sich die Spreu vom Weizen. Während die GSC aggregierte Daten liefert, zeigen Server-Logfiles jeden einzelnen Zugriff des Googlebots. Durch die Analyse der Logfiles kannst du exakt feststellen:
Wie oft crawlt Google welche Sektionen?
Wird Budget auf unwichtige Parameter-URLs oder 404-Seiten verschwendet?
Gibt es Effizienzprobleme bei bestimmten Seitentypen?
Die Erkenntnisse aus der Logfile-Analyse sind die präziseste Grundlage für eine effektive Crawl Budget Optimierung.
Häufige Fehler bei der Crawl Budget Optimierung
Puh, ganz schön technisch? Bei der Steuerung des Crawlers können leicht Fehler passieren, die dramatische SEO-Folgen haben. Vermeide diese Fallstricke:
noindex-Seiten per robots.txt blockieren: Ein klassischer Fehler. Wenn du eine URL in der robots.txt sperrst, kann Google die Seite nicht crawlen. Folglich kann der Bot auch das noindex-Tag im HTML-Code nicht sehen. Die Seite bleibt möglicherweise im Index. Wenn du eine Seite deindexieren willst, muss sie für den Crawler erreichbar bleiben (kein disallow).
Relevante Ressourcen blockieren: Achte darauf, dass du nicht versehentlich wichtige CSS- oder JavaScript-Dateien blockierst. Wenn Google diese Dateien nicht laden kann, versteht es möglicherweise das Layout und die Funktionalität deiner Seite nicht richtig, was zu Ranking-Verlusten führen kann.
Tools & Ressourcen zur Analyse des Crawl Budgets
Um dein Crawl Budget zu überwachen und zu optimieren, benötigst du die richtigen Werkzeuge:
Google Search Console (GSC): Der Crawl-Statistik-Bericht ist der Ausgangspunkt. Er zeigt die Crawl-Aktivität der letzten 90 Tage, aufgeschlüsselt nach Antwortcodes und Dateitypen.
Screaming Frog SEO Spider: Dieses Tool simuliert einen Crawler und hilft dir, die Website-Struktur, interne Verlinkungen, Redirect-Ketten und Indexierungsanweisungen zu analysieren.
Logfile-Analyse-Tools: Für die Tiefenanalyse eignen sich Tools wie der Screaming Frog Log File Analyser oder spezialisierte Lösungen, um Server-Logs auszuwerten.
Fazit: So bringst du dein Crawl Budget auf Kurs
Das Crawl Budget ist eine endliche Ressource. Deine Aufgabe im technischen SEO ist es, Google effizient durch deine Website zu leiten. Verschwende keine Crawl-Ressourcen auf Seiten, die keinen Wert haben.
Die Optimierung des Crawl Budgets ist kein einmaliges Projekt, sondern ein kontinuierlicher Prozess der technischen Hygiene. Indem du unwichtige URLs blockierst (robots.txt), Duplikate konsolidierst (canonical) und eine saubere interne Verlinkung pflegst, stellst du sicher, dass deine wichtigsten Seiten schnell gefunden und indexiert werden.
Deine nächsten Schritte:
Crawl-Statistik in der GSC prüfen: Gibt es Anzeichen für Probleme (z. B. viele 404-Fehler)?
robots.txt analysieren: Blockierst du bereits Parameter und unwichtige Bereiche?
Crawl-Simulation durchführen: Finde heraus, welche minderwertigen Seiten gecrawlt werden können.
👉 Mach jetzt den Crawl-Check und finde heraus, ob Google deine wichtigsten Seiten sieht!
Christian Ott – SEO kreativ denken & Wissen teilen
Als Gründer von SEO-Kreativ lebe ich meine 2014 entdeckte Leidenschaft für SEO. Mein Weg vom Hobby-Blogger zum SEO-Experten und Product Developer hat dabei meinen Ansatz geprägt: Ich teile Wissen verständlich, praxisnah und ohne Fachchinesisch.
Sie sehen gerade einen Platzhalterinhalt von Vimeo. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.
Sie sehen gerade einen Platzhalterinhalt von YouTube. Um auf den eigentlichen Inhalt zuzugreifen, klicken Sie auf die Schaltfläche unten. Bitte beachten Sie, dass dabei Daten an Drittanbieter weitergegeben werden.