Wie funktioniert der Google Suchalgorithmus? Vom Crawling bis zum Ranking

Google Suchalgorithmus: Vom Crawling bis zum Ranking

Sei der Erste, der diesen Beitrag teilt!

⚡️ TL;DR

Der Algorithmus ist ein System: Google nutzt ein komplexes System aus vielen Algorithmen, das in fünf Phasen arbeitet: Crawling (Webseiten finden), Indexierung (Inhalte verstehen und speichern), Query Processing (Suchanfrage verstehen), Ranking (Ascorer bewertet, KI-Systeme verfeinern) und Re-Ranking (Twiddler passen finale Ergebnisse an).

KI-gesteuerte Semantik: Die moderne Suche versteht nicht nur Keywords, sondern die Bedeutung und den Nutzer-Intent. Googles Gemini 2.5 AI, BERT und der Knowledge Graph sind dafür entscheidend. Wichtig: MUM ist NICHT für allgemeines Ranking aktiv – entgegen vieler Behauptungen in der SEO-Szene.

Qualität ist der Schlüssel: Das E-E-A-T-Prinzip (Experience, Expertise, Authoritativeness, Trustworthiness) ist die Grundlage für die Qualitätsbewertung. Nutzersignale wie NavBoost spielen eine größere Rolle als Google lange zugab.

Ständige Evolution: 2025 standen AI Mode, mobile-first Priorität und neue Core Web Vitals (INP) im Fokus – und sie bleiben es 2026. Die Google API Leaks 2024 haben erstmals Einblicke in interne Systeme wie NavBoost, Index Tiers und siteAuthority gegeben.

Hast du dich jemals gefragt, was genau in den Millisekunden passiert, nachdem du eine Suchanfrage bei Google eingibst und bevor du eine perfekt sortierte Liste mit Antworten erhältst? Es wirkt wie Magie, ist aber das Ergebnis eines der komplexesten Systeme der digitalen Welt: des Google Suchalgorithmus.

Stell es dir wie das Gehirn des Internets vor, das die größte Bibliothek der Welt verwaltet. Bevor du ein Buch finden kannst, muss der Bibliothekar erst wissen, welche Bücher existieren, worum es in ihnen geht und wo sie stehen. Genau das macht Google – nur in einer Geschwindigkeit und einem Umfang, der für Menschen unvorstellbar ist.

In diesem Beitrag entschlüssele ich diesen Prozess Schritt für Schritt. Ich zeige dir, wie Google von einer reinen Keyword-Maschine zu einer KI-gesteuerten semantischen Suchmaschine wurde. Durch die Google API Documentation Leaks 2024 haben wir heute mehr Einblick als jemals zuvor. Mach dich bereit, die Blackbox zu öffnen.

Was ist der Google Suchalgorithmus genau?

Der Google Suchalgorithmus ist kein einzelner Code, sondern ein komplexes System aus unzähligen einzelnen Algorithmen und maschinellen Lernprozessen. Jeder Teil dieses Systems hat eine spezifische Aufgabe, die dazu beiträgt, aus Milliarden von Webseiten die bestmögliche Antwort auf deine Frage zu finden.

Die Google API Leaks bei Search Engine Land haben erstmals einen Blick hinter die Kulissen ermöglicht und interne Systemnamen wie Ascorer, NavBoost, Mustang und Twiddler enthüllt – Begriffe, die Google nie öffentlich verwendet hatte.

Das System verarbeitet täglich über 8,5 Milliarden Suchanfragen und muss dabei in Sekundenbruchteilen relevante Ergebnisse aus einem Index von Hunderten von Milliarden Webseiten liefern. Eine technische Meisterleistung, die ständig weiterentwickelt wird.

Welche Phasen durchläuft die Google Suche?

Der gesamte Prozess der Google-Suche gliedert sich in fünf klar definierte Hauptphasen. Jede Phase baut auf der vorherigen auf und ist entscheidend für das, was du auf der Suchergebnisseite (SERP) siehst.

Phase Was passiert? Wichtigste Systeme
1. Crawling Googlebot entdeckt URLs und lädt Seiten herunter Googlebot, Sitemaps, robots.txt, Crawl Budget
2. Indexierung Inhalte werden analysiert und gespeichert Caffeine, Index Tiers (Base/Zeppelins/Landfills)
3. Query Processing Die Suchanfrage wird verstanden Knowledge Graph, BERT, Gemini 2.5
4. Ranking Seiten werden nach Relevanz bewertet Ascorer (Mustang), RankBrain, Neural Matching
5. Re-Ranking Finale Anpassungen vor der Anzeige Twiddler, NavBoost, FreshnessTwiddler, QualityBoost

Detaillierte Informationen zu Googles gesamtem Suchprozess findest du im offiziellen Google Guide: How Search Works.

Der KI-Vertrauens-Filter - So wirst du zitiert

Phase 1: Wie entdeckt Google das Web? (Crawling)

Bevor eine Seite ranken kann, muss Google von ihrer Existenz wissen. Diese erste Phase ist die absolute Grundlage für die Sichtbarkeit im Netz.

Was ist Crawling?

Crawling ist der Prozess, bei dem automatisierte Programme (genannt Crawler oder Spider) systematisch das Internet durchsuchen. Googles wichtigster Crawler ist der Googlebot. Er folgt Links von bereits bekannten Seiten, um neue Seiten zu entdecken – ganz ähnlich, wie du von einem Artikel zum nächsten klickst.

Mit über 62% mobilem Website-Traffic (Quelle: Statista 2025) ist die mobile Nutzererfahrung zum Standard geworden. Der Googlebot verwendet primär die Smartphone-Version für das Crawling (Mobile-First Indexing).

Wie entdeckt der Googlebot URLs?

  • Links von bereits bekannten Seiten: Wenn Seite A auf Seite B verlinkt, folgt der Googlebot diesem Link.
  • XML-Sitemaps: Eine Liste aller wichtigen URLs deiner Website, die du in der Google Search Console einreichen kannst.
  • URL-Übermittlung: Manuelles Anmelden einzelner URLs zur Indexierung über die Search Console.
  • Externe Links (Backlinks): Verweise von anderen Websites zu deiner Seite beschleunigen die Entdeckung.

Was ist das Crawl Budget?

Nicht jede Seite wird gleich oft gecrawlt. Google verteilt seine Ressourcen nach dem sogenannten Crawl Budget – einer Kombination aus Crawl-Kapazität (wie viele URLs Google crawlen kann, ohne deinen Server zu überlasten) und Crawl-Nachfrage (wie wichtig Google deine URLs einschätzt).

Große, qualitativ hochwertige Websites mit schnellen Servern erhalten mehr Budget. Faktoren wie doppelte Inhalte, Soft-404-Fehler oder langsame Ladezeiten verschwenden dein Budget.

Vertiefung: Eine detaillierte Anleitung zur Optimierung findest du in meinem Guide: Crawl Budget optimieren: So werden deine Inhalte schneller indexiert

Phase 2: Wie speichert Google Inhalte? (Indexierung)

Indexierung ist der Prozess, bei dem die beim Crawling gefundenen Informationen analysiert, verstanden und in einer riesigen Datenbank, dem Google-Index, gespeichert werden. Nur indexierte Seiten können in den Suchergebnissen erscheinen. Eine tiefgehende Analyse beider Prozesse findest du in meinem Artikel: Crawling & Indexierung: So findet und speichert Google deine Inhalte.

Was ist Caffeine?

Caffeine ist Googles Indexierungsinfrastruktur, die 2010 eingeführt wurde. Es ist keine Ranking-Änderung, sondern ein komplettes Redesign der Architektur. Vor Caffeine wurde der Index in großen Batches aktualisiert – heute geschieht dies kontinuierlich und inkrementell.

„Caffeine provides 50 percent fresher results for web searches than our last index, and it is the largest collection of web content we have offered.“
– Google Search Central Blog (2010)

Die Index-Tiers: Base, Zeppelins, Landfills

Die Google API Leaks haben enthüllt, dass der Index in drei Ebenen (Tiers) strukturiert ist – ein Detail, das Google nie öffentlich kommuniziert hatte:

  • Base (Flash-Speicher): Der wichtigste, häufig aktualisierte Content. Schnellster Zugriff, höchste Priorität. Hier willst du sein!
  • Zeppelins (SSDs): Content mittlerer Wichtigkeit und Aktualität. Solide Performance, aber nicht Top-Priorität.
  • Landfills (HDDs): Selten aktualisierter oder weniger wichtiger Content. Langsamster Zugriff, niedrigste Priorität.
SEO-Implikation: Du möchtest, dass deine wichtigsten Seiten im Base-Tier landen. Das erreichst du durch regelmäßige Updates, hohe Qualität, gute Nutzersignale und eine saubere technische Struktur.

Phase 3: Wie versteht Google deine Suchanfrage?

Die Zeiten, in denen Google eine reine Keyword-Maschine war, sind längst vorbei. Heute will die Suchmaschine verstehen, was du wirklich meinst – deinen Intent, den Kontext und die Bedeutung hinter deinen Worten.

Der Wandel von Keywords zu Konzepten

Dieser fundamentale Wandel wurde maßgeblich durch das Hummingbird-Update 2013 vorangetrieben. Google versteht seitdem, dass jemand, der nach der „besten Pizzeria in der Nähe“ sucht, nicht nur eine Liste von Webseiten will, sondern konkrete, lokale Restaurantvorschläge mit Bewertungen, Öffnungszeiten und Wegbeschreibung.

Was ist der Google Knowledge Graph?

Der Knowledge Graph ist Googles riesige Wissensdatenbank über Entitäten (Personen, Orte, Dinge, Konzepte) und deren Beziehungen zueinander. Google weiß nicht nur, dass „Albert Einstein“ ein String ist – es weiß, dass er eine Person war, ein Physiker, in Ulm geboren, mit der Relativitätstheorie verbunden ist und den Nobelpreis gewonnen hat.

Dieses vernetzte Wissen ermöglicht direkte Antworten in Knowledge Panels, Featured Snippets und AI Overviews – ohne dass der Nutzer eine Website besuchen muss.

Wie revolutionierte KI das Sprachverständnis?

BERT (seit 2019)

BERT (Bidirectional Encoder Representations from Transformers) revolutionierte das Sprachverständnis. Es liest Text bidirektional – also in beide Richtungen gleichzeitig – und versteht dadurch den Kontext kleiner Wörter wie „für“, „ohne“ oder „nicht“, die früher oft ignoriert wurden.

Beispiel: Bei der Suchanfrage „kann ich Medikamente FÜR jemanden abholen“ versteht BERT, dass du wissen willst, ob du Medikamente für eine andere Person holen kannst – nicht für dich selbst. Vor BERT wurde das kleine Wort „für“ oft ignoriert, was zu irrelevanten Ergebnissen führte.

Mehr Details findest du im offiziellen BERT-Announcement von Google.

Gemini 2.5 (2025)

Der neueste Meilenstein ist Googles Gemini 2.5 AI, die sowohl im neuen AI Mode als auch in klassischen Suchergebnissen eingesetzt wird. Gemini kann multimodale Anfragen verarbeiten (Text, Bild, Video gleichzeitig) und verfügt über erweiterte Reasoning-Fähigkeiten, die komplexe mehrstufige Denkprozesse ermöglichen.

Was ist mit MUM?

Wichtig: MUM ist NICHT für allgemeines Ranking aktiv! Entgegen vieler Behauptungen in der SEO-Szene wird MUM (Multitask Unified Model) derzeit nur für spezifische Anwendungen genutzt – wie COVID-Impfinformationen und bestimmte Featured Snippets. Google selbst bestätigt: „MUM is not currently used for general ranking in Search.“ Das ist einer der häufigsten SEO-Mythen 2025.

Phase 4: Wie wählt Google die besten Ergebnisse aus? (Ranking)

Das Ranking ist das Herzstück der Google Suche – hier entscheidet sich, welche Seiten auf Position 1, 2 oder 3 erscheinen und welche auf Seite 10 verschwinden.

Was ist Ascorer? Der primäre Ranking-Algorithmus

Ascorer (kurz für „Amit’s Scorer“, benannt nach Amit Singhal, dem ehemaligen Head of Search) ist der fundamentale Ranking-Algorithmus, der Seiten bewertet, BEVOR alle anderen Anpassungen durch RankBrain, BERT oder Twiddler erfolgen.

Ascorer ist Teil des Mustang-Systems – Googles primärem Scoring-, Ranking- und Serving-System. Er verarbeitet Hunderte von Ranking-Signalen, darunter:

  • Relevanz des Inhalts zur Suchanfrage
  • Qualität und Tiefe des Contents
  • Backlink-Profil und PageRank
  • Technische Faktoren (Ladezeit, Mobile-Freundlichkeit, Core Web Vitals)
  • Nutzersignale und Engagement-Metriken

Die KI-Schicht: RankBrain und Neural Matching

RankBrain (seit 2015) war Googles erstes Machine-Learning-System im Ranking. Es übersetzt Wörter und Phrasen in mathematische Vektoren (Word Embeddings), um Konzepte statt Keywords zu verstehen. Bei einer Suchanfrage wie „Spitzenprädator Nahrungskette“ kann RankBrain erkennen, dass du wahrscheinlich nach „Apex Predator“ suchst.

Neural Matching (seit 2018) ist Googles „Super-Synonym-System“. Es versteht die konzeptuelle Verbindung zwischen Suchanfragen und Seiteninhalten – auch wenn die Wörter nicht übereinstimmen. Eine Seite über „Warum wird mein Fernseher komisch“ kann so für „TV Farbprobleme beheben“ ranken.

Eine vollständige Übersicht aller aktiven Ranking-Systeme bietet Googles offizieller Leitfaden zu Ranking-Systemen.

Phase 5: Was passiert nach dem Ranking? (Re-Ranking & Twiddler)

Nachdem Ascorer und die KI-Systeme ihre Arbeit getan haben, kommt die finale Anpassung durch das Twiddler-Framework. Diese Phase wurde erst durch die API Leaks bekannt und zeigt, wie komplex das System wirklich ist.

Was sind Twiddler?

Twiddler sind Re-Ranking-Funktionen, die nach dem primären Ascorer-Algorithmus laufen. Sie agieren als finale Instanz und können:

  • Den Information-Retrieval-Score eines Dokuments nach oben oder unten anpassen
  • Die Position eines Ergebnisses ändern (promoten oder demoten)
  • Ergebnisse komplett filtern oder die Diversität der SERP steuern
  • Kategorien beschränken (z.B. max. 3 Blog-Posts oder 2 Videos pro SERP)

Bekannte Twiddler-Systeme

Durch die API Leaks kennen wir einige der wichtigsten Twiddler:

  • NavBoost: Passt Rankings basierend auf Nutzerverhalten und Click-Logs an (mehr dazu im nächsten Kapitel)
  • FreshnessTwiddler: Belohnt frische, aktuelle Inhalte für zeitkritische Suchanfragen wie News oder Events
  • QualityBoost: Verbessert Rankings für hochwertige Inhalte basierend auf Qualitätssignalen
  • SiteBoost: Fördert oder demotiert ganze Websites basierend auf Site-weiten Qualitätssignalen
  • RealTimeBoost: Priorisiert Breaking News und aktuelle Ereignisse in Echtzeit
Isolation-Prinzip: Jeder Twiddler arbeitet isoliert – ohne Kenntnis der Entscheidungen anderer Twiddler. Das Framework versöhnt dann alle Empfehlungen zu einem finalen Ranking. 2018 waren bereits über 65 Twiddler in Produktion – heute vermutlich weit über 100.

Was ist der wichtigste Rankingfaktor für Google?

Der wichtigste übergreifende Rankingfaktor ist die Qualität des Inhalts, die Google anhand des E-E-A-T-Konzepts bewertet. Die praktische Umsetzung ist entscheidend, daher empfehle ich meinen ausführlichen E-E-A-T: Der ultimative Guide für mehr Trust und Top-Rankings.

Wofür stehen die Buchstaben in E-E-A-T?

  • Experience (Erfahrung): Zeigt der Autor, dass er praktische, gelebte Erfahrung mit dem Thema hat? Hat er das Produkt wirklich getestet, den Ort besucht, die Situation erlebt?
  • Expertise (Fachwissen): Ist der Autor ein anerkannter Experte auf seinem Gebiet? Hat er relevante Ausbildung, Zertifizierungen oder nachweisbare Kompetenz?
  • Authoritativeness (Autorität): Gilt die Webseite und der Autor als maßgebliche Quelle für das Thema? Wird sie von anderen Experten zitiert und verlinkt?
  • Trustworthiness (Vertrauenswürdigkeit): Ist die Seite sicher, transparent und vertrauenswürdig? Gibt es ein Impressum, Datenschutzerklärung, sichere Verbindung?

„Trust is the most important member of the E-E-A-T family because untrustworthy pages have low E-E-A-T no matter how Experienced, Expert, or Authoritative they may seem.“
– Google Quality Rater Guidelines

Die vollständigen Bewertungskriterien findest du in den Google Quality Rater Guidelines (PDF). Die wichtigsten Änderungen aus dem letzten Update habe ich analysiert: Google Quality Raters Guidelines Update September 2025.

Welche Rolle spielen Nutzersignale wirklich? (NavBoost)

Die Google API Leaks haben etwas bestätigt, das Google jahrelang öffentlich abgestritten hat: Klickdaten und Nutzerverhalten spielen eine massive Rolle im Ranking. Eine detaillierte Analyse dieser Enthüllungen findest du in meinem Artikel: Google Leak: Warum Nutzersignale wichtiger sind als alles, was Du bisher über SEO wusstest.

Was ist NavBoost?

NavBoost ist ein Re-Ranking-System, das auf Click-Logs und Nutzerverhalten basiert. Die Leaks zeigen, dass Google 13 Monate an Klickdaten speichert und analysiert. Folgende Metriken fließen ein:

  • Click-Through-Rate (CTR): Wie oft wird ein Ergebnis bei einer bestimmten Suchanfrage angeklickt im Vergleich zu anderen Ergebnissen?
  • Long Clicks vs. Short Clicks: Bleibt der Nutzer lange auf der Seite (positiv) oder kehrt er innerhalb von Sekunden zur SERP zurück (negativ)?
  • Pogo-Sticking: Springt der Nutzer zwischen mehreren Ergebnissen hin und her? Das ist ein starkes negatives Signal.
  • Dwell Time: Wie lange verweilt der Nutzer insgesamt auf der Seite bevor er zur Suche zurückkehrt?
  • ChromeUX-Daten: Echte Nutzerdaten aus dem Chrome-Browser fließen ebenfalls in die Bewertung ein.

Was bedeutet siteAuthority?

Die Leaks zeigen auch ein Feld namens siteAuthority – obwohl Google jahrelang öffentlich bestritten hat, dass es so etwas wie „Domain Authority“ gibt. Dieses Signal bewertet offenbar die Gesamtqualität und Vertrauenswürdigkeit einer Website auf Domain-Ebene – nicht nur einzelne Seiten.

Warum aktualisiert Google den Algorithmus ständig?

Google aktualisiert seinen Algorithmus tausende Male pro Jahr, um die Suchergebnisse zu verbessern, sich an neues Nutzerverhalten anzupassen und Manipulationsversuche zu bekämpfen. Die meisten Änderungen sind klein und kaum spürbar – aber einige wenige „Core Updates“ können ganze Branchen durcheinanderwirbeln.

Die wichtigsten Updates 2025

Update Zeitraum Fokus
March Core Update 13.-27. März (14 Tage) Content-Qualität, KI-Content abgewertet
June Core Update 30. Juni – 17. Juli (16 Tage) Nutzerzentrierter Content, HCU-Recoveries
August Spam Update 26. Aug – 22. Sep (27 Tage) KI-Spam, SpamBrain-Verbesserungen
December Core Update 11.-29. Dezember (18 Tage) Pre-Holiday, erhöhte Komplexität

Meine ausführlichen Analysen zu den Updates 2025:

Im Google Search Status Dashboard kannst du alle offiziellen Updates verfolgen. Wie du SERP-Volatilität richtig deutest und auf Updates reagierst, erkläre ich in: Wie dir der Semrush Sensor hilft, SERP-Volatilität und Google Updates zu meistern.

Die wichtigsten Neuerungen: AI Mode, INP und Gemini 2.5

Was ist Googles AI Mode?

2025 hat Google den AI Mode eingeführt – eine komplett neue Art zu suchen, die von Gemini 2.5 angetrieben wird. AI Mode nutzt eine „Query Fan-Out“ Technik: Google zerlegt komplexe Fragen in Unterthemen, sucht parallel dazu in verschiedenen Quellen und erstellt KI-generierte, umfassende Antworten.

Wichtig für SEO: AI Mode rankt Websites anders als die traditionelle Suche. Es durchsucht oft 50+ Websites für eine einzige Antwort, zeigt aber nur wenige in der Quellenauswahl an. Das verändert die Traffic-Verteilung fundamental.

Die Unterschiede und SEO-Implikationen im Detail:

Was ändert sich bei Core Web Vitals?

Seit März 2024 ist Interaction to Next Paint (INP) offiziell Teil der Core Web Vitals und hat First Input Delay (FID) ersetzt. Der entscheidende Unterschied: INP misst die Reaktionsfähigkeit deiner Website auf alle Nutzerinteraktionen während des gesamten Besuchs – nicht nur die erste.

Core Web Vitals Benchmarks 2026

Metrik Gut Schlecht
LCP (Largest Contentful Paint) < 2,5 Sekunden > 4 Sekunden
INP (Interaction to Next Paint) < 200ms > 500ms
CLS (Cumulative Layout Shift) < 0,1 > 0,25

Mehr dazu in der offiziellen Web Vitals Dokumentation.

llms.txt – Vorbereitung für KI-Crawler

Mit dem Aufkommen von KI-Suchsystemen wird auch die Frage relevant, wie du deine Inhalte für KI-Crawler optimierst. Das neue Format llms.txt bietet eine strukturierte Möglichkeit, KI-Systemen Informationen über deine Website bereitzustellen: llms.txt erklärt: Schritt-für-Schritt-Anleitung & Praxisbeispiel.

Fazit: Deine SEO-Strategie für den modernen Algorithmus

Den Google-Algorithmus zu verstehen, bedeutet zu erkennen, dass es keine einfachen Tricks mehr gibt. Die Zeiten, in denen man mit Keyword-Stuffing und Link-Spam Rankings manipulieren konnte, sind endgültig vorbei. Moderner SEO-Erfolg 2026 basiert auf vier fundamentalen Säulen:

  1. Technische Exzellenz: Sorge für einwandfreie Crawl- und Indexierbarkeit, achte auf Core Web Vitals (besonders INP < 200ms) und nutze strukturierte Daten. Eine technisch einwandfreie Website ist das Fundament.
  2. Semantische Relevanz: Erstelle Inhalte, die Themenwelten tiefgehend und umfassend abdecken. Beantworte die Fragen deiner Zielgruppe besser, vollständiger und hilfreicher als jeder andere.
  3. Absolute Vertrauenswürdigkeit: Baue deine persönliche Marke auf, demonstriere deine echte Expertise und Erfahrung, und werde zu einer Autorität, der sowohl Nutzer als auch Google vertrauen (E-E-A-T).
  4. KI-Optimierung: Bereite deine Inhalte für AI Mode und AI Overviews vor. Strukturiere Informationen klar, beantworte Fragen direkt und umfassend, und werde zu einer zitierwürdigen Quelle.
Dein nächster Schritt: Indem du deine Strategie auf diese vier Prinzipien ausrichtest, arbeitest du MIT dem Algorithmus, nicht gegen ihn. Du baust nicht auf kurzfristige Tricks, sondern auf nachhaltige Qualität. Das ist der einzig sichere Weg zu Top-Rankings – auch im KI-Zeitalter 2026 und darüber hinaus.

Häufig gestellte Fragen (FAQ)

Wie oft ändert sich der Google Algorithmus?

Mehrmals täglich. Google bestätigt tausende kleine Änderungen pro Jahr. Größere, spürbare Core Updates werden 3-4 Mal jährlich ausgerollt. 2025 gab es Core Updates im März, Juni und Dezember sowie ein Spam Update im August.

Was sind die wichtigsten Google Ranking Faktoren 2026?

Die wichtigsten Konzepte sind: Content-Qualität und E-E-A-T (Experience, Expertise, Authoritativeness, Trustworthiness), Mobile-First Optimierung und Core Web Vitals (besonders INP), semantische Relevanz und umfassende Themenabdeckung, sowie technische SEO (Crawlbarkeit, Indexierung, Seitenladezeit). Nutzersignale wie NavBoost spielen ebenfalls eine wichtige Rolle.

Was ist Ascorer?

Ascorer (kurz für „Amit’s Scorer“, benannt nach Amit Singhal) ist Googles primärer Ranking-Algorithmus, der Seiten bewertet, BEVOR RankBrain, BERT oder Twiddler ihre Anpassungen vornehmen. Er ist Teil des Mustang-Systems und wurde durch die Google API Leaks 2024 erstmals öffentlich bekannt.

Wird MUM für das Ranking verwendet?

Nein, nicht für allgemeines Ranking. Entgegen vieler Behauptungen in der SEO-Szene wird MUM (Multitask Unified Model) derzeit nur für spezifische Anwendungen genutzt, wie COVID-Impfinformationen und bestimmte Featured Snippets. Google hat dies offiziell bestätigt: „MUM is not currently used for general ranking in Search.“

Was sind Twiddler?

Twiddler sind Re-Ranking-Funktionen, die NACH dem primären Ranking (Ascorer) laufen. Sie passen die finalen Suchergebnisse basierend auf spezifischen Kriterien an – z.B. NavBoost für Nutzersignale, FreshnessTwiddler für Aktualität oder QualityBoost für hochwertige Inhalte. 2018 waren bereits über 65 Twiddler in Produktion.

Was ist der Unterschied zwischen Core Updates und Spam Updates?

Core Updates sind breite Anpassungen am gesamten Ranking-System zur Verbesserung der Relevanz und Qualität der Suchergebnisse. Sie betreffen alle Websites und können zu Gewinnern und Verlierern führen. Spam Updates zielen spezifisch darauf ab, Webseiten zu identifizieren und abzustrafen, die gegen Googles Spam-Richtlinien verstoßen (Link-Spam, Cloaking, Keyword-Stuffing etc.).

Wie lange dauert es, bis Ranking-Änderungen sichtbar werden?

Das variiert stark je nach Situation: Neue Inhalte auf autoritativen Seiten können binnen Stunden in den Index aufgenommen werden und ranken. Content-Updates auf bestehenden Seiten benötigen meist 1-4 Wochen für eine vollständige Neubewertung. Nach Core Updates können die vollständigen Auswirkungen 2-4 Wochen dauern, bis sie sich stabilisieren.

Kann man den Google Algorithmus austricksen?

Nein, nicht nachhaltig. Manipulative Taktiken (Black-Hat-SEO) werden vom Algorithmus immer besser erkannt – besonders mit den neuen KI-Systemen wie Gemini 2.5 und dem erweiterten SpamBrain-System. Kurzfristige Gewinne führen oft zu langfristigen Abstrafungen. Eine Strategie, die auf echte Qualität und Nutzerwert basiert, ist der einzig nachhaltige Weg.

Was hat der Google API Leak 2024 enthüllt?

Die Leaks haben interne Systemnamen und Funktionen offenbart, die Google nie öffentlich kommuniziert hatte: Ascorer als primären Ranking-Algorithmus, NavBoost für Nutzersignale (mit 13 Monaten Click-Log-Daten), Index Tiers (Base/Zeppelins/Landfills) für die Speicherpriorisierung, siteAuthority als Domain-weites Qualitätssignal (obwohl Google „Domain Authority“ immer abgestritten hatte), und das Twiddler-Framework für das finale Re-Ranking. 

Christian Ott - Gründer von www.seo-kreativ.de

Christian Ott – SEO kreativ denken & Wissen teilen

Als Gründer von SEO-Kreativ lebe ich meine 2014 entdeckte Leidenschaft für SEO. Mein Weg vom Hobby-Blogger zum SEO-Experten und Product Developer hat dabei meinen Ansatz geprägt: Ich teile Wissen verständlich, praxisnah und ohne Fachchinesisch.