Google Ranking-Volatilität Februar 2026: Drei Fronten, null Pausen – meine Einordnung

Google Ranking-Volatilität Februar 2026: Drei Fronten, null Pausen – meine Einordnung
⚡️ TL;DR

Permanente Unruhe: Seit dem Ende des Dezember 2025 Core Updates gab es keine einzige ruhige Woche in den SERPs. Neun dokumentierte Volatilitätswellen in sieben Wochen, 15 Prozent aller Top-10-Seiten aus den Top 100 verschwunden, Domains unter zwei Jahren Alter unter 2 Prozent der Top-Rankings – das ist selbst für Google-Verhältnisse beispiellos.

Drei Baustellen gleichzeitig: Parallel laufen das bestätigte Discover Core Update (aktuell nur USA), ein vermutetes Reviews-System-Update und Googles Vorgehen gegen selbstreferenzielle „Best of“-Listicles mit Sichtbarkeitsverlusten von 30 bis 50 Prozent bei betroffenen SaaS-Unternehmen. Wer nur auf ein einziges Update schaut, versteht die Lage nicht.

Was hilft: Keine Panik-Änderungen, dafür saubere Dokumentation und Diagnose. Wer jetzt E-E-A-T-Signale stärkt, thematische Tiefe aufbaut und die GSC-Daten systematisch auswertet, navigiert durch diese Phase – alle anderen reagieren nur.

Ich weiß nicht, wie es dir geht – aber ich habe seit Wochen das Gefühl, dass die Google-SERPs nicht zur Ruhe kommen. Und die Daten geben mir leider Recht.

Seit dem Abschluss des December 2025 Core Updates am 29. Dezember hat Search Engine Roundtable mindestens neun separate Volatilitätswellen dokumentiert. Neun. In sieben Wochen. Am Wochenende des 15. Februar hält die Unruhe nicht nur an – laut Barry Schwartz hat sie sich sogar noch verstärkt, und erstmals verliert auch Reddit deutlich an SERP-Sichtbarkeit. Die Zahlen aus dem Dezember-Update, die jetzt nachrücken, sind brutal: Eine Studie von SE Ranking über 100.000 Keywords zeigt, dass rund 15 Prozent aller Seiten, die vorher in den Top 10 standen, komplett aus den Top 100 verschwunden sind. Jede siebte Seite – einfach weg. Local-SEO-Expertin Joy Hawkins bezeichnete das Dezember-Update am 12. Februar als das „dramatischste Update für lokale SEO“, das sie je erlebt hat.

Was mich an der aktuellen Berichterstattung stört: Die meisten Quellen behandeln das Ganze wie ein einzelnes, vorübergehendes Ereignis. „Rankings schwanken, bleibt ruhig, wird schon wieder.“ Das greift viel zu kurz. Denn was wir gerade erleben, ist nicht ein Update – es sind mindestens drei verschiedene Entwicklungen, die gleichzeitig stattfinden. Und jede davon verdient eine eigene Analyse.

Genau das mache ich in diesem Artikel. Keine Beruhigungspillen, keine vagen SEO-Floskeln – sondern meine ehrliche Einordnung als SEO-Berater mit über 12 Jahren Praxis: was wir beobachten, was wir nicht wissen und was du trotzdem konkret tun kannst.

Die Lage: Warum Februar 2026 anders ist

Ranking-Schwankungen gehören zur Google-Suche wie Wolken zum Himmel. Die Frage ist immer: Sind es harmlose Schönwetterwolken oder zieht ein Sturm auf?

Was den Februar 2026 von anderen volatilen Phasen unterscheidet, sind drei Dinge:

Erstens die Dauer. Normalerweise beruhigen sich die SERPs zwei bis vier Wochen nach einem Core Update. Beim Dezember-Update ist das nie eingetreten. Die Volatilität ging nahtlos in die Januar-Schwankungen über, die wiederum nahtlos in die Februar-Schwankungen übergingen. Es gibt keine Pause. Das habe ich bereits in meiner Analyse der Januar-Volatilität beschrieben – damals dachte ich noch, es würde sich im Februar beruhigen. Das war offensichtlich zu optimistisch.

Zweitens die Intensität. Die Tracking-Tools – Semrush Sensor, Sistrix, Algoroo, Accuranker, Mozcast und andere – zeigen nicht nur erhöhte, sondern teilweise extreme Werte. Und zwar nicht für einzelne Branchen, sondern breit gestreut. Wer wissen will, wie man diese Daten richtig liest, findet in meinem Praxis-Guide zum Semrush Sensor eine ausführliche Anleitung.

Drittens die Gleichzeitigkeit. Es laufen aktuell mindestens drei verschiedene algorithmische Veränderungen parallel – und Google schweigt zu den meisten davon. Das macht eine saubere Ursachenanalyse extrem schwierig.

Meine ehrliche Einschätzung: Ich glaube, wir müssen uns von der Vorstellung verabschieden, dass es nach Updates „Ruhephasen“ gibt. Google iteriert inzwischen kontinuierlich an seinen Ranking-Systemen. Permanente Volatilität ist nicht der Ausnahmefall – sie wird zur Normalität.
Screenshot: Semrush Sensor SERP-Schwankungen Februar 2026

Screenshot: Semrush Sensor SERP-Schwankungen Februar 2026

Chronologie der Volatilität seit Dezember 2025

Um die aktuelle Situation einzuordnen, hilft ein Blick auf die gesamte Kette der Ereignisse. Hier wird deutlich, wie dicht die Schläge aufeinanderfolgen:

Datum Ereignis Typ
11.–29. Dez. 2025 December 2025 Core Update – Peaks am 13. und 20. Dezember Bestätigt
6. Jan. 2026 Erste Volatilitätswelle nach dem Core Update Unbestätigt
12. Jan. Zweite Welle – Community-Chatter laut, Tools zunächst ruhig Unbestätigt
15.–16. Jan. Dritte Welle – Spezialisten vs. Generalisten-Muster erkennbar Unbestätigt
21. Jan. Glenn Gabe prägt den Begriff „Mt. AI“ für KI-Content, der nach Höhenflug abstürzt Unbestätigt
26.–29. Jan. Mehrtägige Volatilität, Hinweise auf Vorgehen gegen Listicles Unbestätigt
2. Feb. Massive Schwankungen – Tracking-Tools zeigen extreme Werte Unbestätigt
3. Feb. Lily Ray veröffentlicht Analyse zu selbstreferenziellen Listicles Branchenanalyse
4. Feb. Glenn Gabe vermutet Reviews-System-Update – bezeichnet es als „Reviews Update Notes“ Unbestätigt
5. Feb. February 2026 Discover Core Update startet offiziell Bestätigt
10. Feb. Neue Volatilitätswelle in der organischen Suche Unbestätigt
15. Feb. Volatilität bleibt über das Wochenende extrem hoch, Reddit verliert in den SERPs Unbestätigt

Was an dieser Timeline auffällt: Zwischen dem offiziellen Ende des Dezember-Core-Updates und der ersten Januar-Welle lagen gerade einmal acht Tage. Seitdem wurde es nie wirklich ruhig. Das ist ein fundamentaler Unterschied zu früheren Jahren, in denen zwischen bestätigten Updates oft Wochen oder Monate relativer Stabilität lagen.

Zum Vergleich: 2025 gab es drei bestätigte Core Updates (März, Juni, Dezember) plus das August Spam Update. Dazwischen lagen jeweils Wochen mit moderater Volatilität. 2026 hingegen startete direkt mit Dauerturbulenz – und ein Ende ist nicht absehbar.

Was die SE-Ranking-Studie besonders eindrucksvoll zeigt: Im E-Commerce wurden 23 Prozent der Top-3-URLs ausgetauscht – im Gesundheitsbereich nur 8 Prozent. Schnelllebige, trendgetriebene Branchen geben Google offenbar mehr Spielraum zum Experimentieren, während YMYL-Bereiche stabiler bleiben. Gleichzeitig dominieren Domains mit mehr als 15 Jahren Alter die Top 10 stärker denn je, während neue Domains unter zwei Jahren weniger als 2 Prozent der Top-Rankings ausmachen. Google belohnt aufgebaute Autorität – und bestraft fehlende.

Drei Baustellen: Discover, Reviews und Listicle-Crackdown

Das Kernproblem bei der Analyse der aktuellen Situation: Es passiert nicht eine Sache – es passieren mindestens drei. Und sie überlagern sich. Lass mich jede einzelne aufschlüsseln.

Baustelle 1: Das February 2026 Discover Core Update

Am 5. Februar startete das erste reine Discover Core Update in Googles Geschichte. Ich habe es in einem eigenen Artikel ausführlich analysiert, daher hier nur die Kurzversion: Das Update betrifft aktuell nur englischsprachige Nutzer in den USA, fokussiert sich auf lokale Relevanz, Anti-Clickbait und thematische Expertise. Für den DACH-Raum ist der Rollout erst in den kommenden Monaten zu erwarten.

Der entscheidende Punkt: Barry Schwartz hat auf Search Engine Roundtable wiederholt betont, dass die Volatilität in der organischen Suche nicht mit dem Discover-Update zusammenzuhängen scheint. Es sind separate Ereignisse, die zufällig zeitgleich stattfinden. Wer beides in einen Topf wirft, macht einen Analysefehler.

Baustelle 2: Das vermutete Reviews-System-Update

Glenn Gabe – einer der erfahrensten Core-Update-Analysten der Branche – hat eine klare Hypothese: Google hat sein Reviews System aktualisiert. Am 4. Februar bezeichnete er die aktuelle Volatilität als „Reviews Update Notes“ – ein deutliches Signal, wie überzeugt er von seiner Einschätzung ist. Das Reviews System ist dasselbe System, das früher als Product Reviews System bekannt war. Google hat irgendwann aufgehört, Reviews-Updates separat anzukündigen, weil das System in die regulären Ranking-Systeme integriert wurde.

Was für Gabes These spricht: Die Muster, die er bei betroffenen Websites beobachtet, ähneln früheren Reviews-Updates. Besonders betroffen sind Websites mit Bewertungs- und Vergleichsinhalten, die keine echte redaktionelle Unabhängigkeit zeigen. Das deckt sich mit dem, was wir über Googles Quality Raters Guidelines wissen: Unabhängigkeit und Transparenz bei Bewertungen werden als zentrale Qualitätssignale betrachtet.

Baustelle 3: Der Listicle-Crackdown

Das ist nach meiner Einschätzung die spannendste und für viele Unternehmen relevanteste Entwicklung – und in der deutschsprachigen Berichterstattung kommt sie bisher viel zu kurz.

Lily Ray, VP SEO Strategy bei Amsive, hat Anfang Februar eine detaillierte Analyse veröffentlicht, die ein klares Muster zeigt: SaaS- und B2B-Unternehmen, die massenhaft selbstreferenzielle „Best of“-Listicles veröffentlicht haben, verzeichnen Sichtbarkeitsverluste von 30 bis 50 Prozent.

Was sind selbstreferenzielle Listicles? Artikel wie „Die 10 besten Content-Marketing-Agenturen 2026″, in denen das veröffentlichende Unternehmen sich selbst auf Platz 1 setzt. Ohne unabhängige Testmethodik, ohne Transparenz, ohne echte redaktionelle Substanz – aber mit dem aktuellen Jahrestag im Titel für das Recency-Signal. Besonders verbreitet ist laut Rays Analyse auch eine Variante des reziproken Linkings: „Du nennst mich in deinem Best-of-Artikel, ich nenne dich in meinem.“ Ein Tauschhandel, der Google zunehmend durchschaut. Auf X nannte Ray inzwischen mindestens 15 betroffene Unternehmen, die jeweils über 100 solcher selbstreferenziellen Listicles veröffentlicht hatten und deren Blogs zwischen dem 20. und 30. Januar massiv an Sichtbarkeit verloren.

Diese Taktik wurde in den letzten Monaten besonders im Kontext von GEO (Generative Engine Optimization) populär, weil solche Listicles nicht nur in der klassischen Suche rankten, sondern auch von KI-Systemen wie ChatGPT, Gemini und AI Overviews als Quellen herangezogen wurden.

Rays Analyse zeigt konsistente Muster bei den betroffenen Unternehmen: Der Blog-Bereich verliert massiv an Sichtbarkeit, während Produktseiten und Service-Seiten stabil bleiben oder sogar gewinnen. Search Engine Land bestätigt die Analyse: Die Verluste waren nicht domainweit, sondern konzentrierten sich auf Blog-, Guide- und Tutorial-Unterverzeichnisse. Bei einem von ihr untersuchten B2B/B2C-SaaS-Unternehmen lag der Sichtbarkeitsverlust bei 42 Prozent seit Mitte Januar – fast ausschließlich getrieben durch den Blog mit hunderten solcher Listicles. Ein anderes Unternehmen hatte allein 191 selbstreferenzielle „Best of“-Artikel bei über 30.000 indexierten Blog-Seiten.

Warum das auch für den deutschen Markt relevant ist: Die Listicle-Taktik ist keineswegs nur ein US-Phänomen. Auch im DACH-Raum veröffentlichen Unternehmen zunehmend „Die besten Tools für X“-Artikel, in denen das eigene Produkt prominent platziert wird. Christian Kunz von SEO Südwest hat bereits darauf hingewiesen, dass diese Entwicklung auch die Sichtbarkeit in AI Overviews betreffen kann. Wer solche Inhalte auf seiner Seite hat, sollte sie jetzt kritisch prüfen.

Was in den SERPs wirklich passiert

Zahlen und Hypothesen sind das eine. Aber was erleben Website-Betreiber tatsächlich? Die Berichte in den Foren, auf WebmasterWorld und in den Kommentarspalten zeichnen ein drastisches Bild. Ich fasse die wichtigsten Muster zusammen – mit einer kritischen Einordnung, die ich anderswo vermisse.

Muster 1: Extreme Einbrüche bei langjährigen Publishern

Einige Seitenbetreiber berichten von den niedrigsten Traffic-Zahlen seit fünf oder sogar zehn Jahren. Die Berichte reichen von 50-Prozent-Einbrüchen über Nacht bis hin zu Publisher-Seiten, deren Traffic auf nahezu null gefallen ist. Ein Kommentator fasst die Stimmung zusammen: Die Google Analytics zu öffnen, sei inzwischen zum „neuen Horror“ geworden.

Muster 2: Rankings im Dauershuffle

Mehrere SEOs berichten, dass Rankings bei jeder einzelnen Suchanfrage an andere Positionen springen. Das deutet darauf hin, dass Google aktiv verschiedene Ranking-Konfigurationen testet. Dieses Verhalten kennen wir von größeren Algorithmus-Änderungen – es ist ein Zeichen dafür, dass Google seine Systeme kalibriert und noch keine finale Gewichtung gefunden hat.

Muster 3: Gespaltene Signale bei E-Commerce

Besonders aufschlussreich: Manche Shop-Betreiber berichten von steigendem Traffic bei gleichzeitig sinkenden Umsätzen. Das ist kein Widerspruch – es deutet darauf hin, dass Google mehr Low-Intent-Traffic ausliefert, der nicht konvertiert. Andere Shop-Betreiber wiederum melden den besten Umsatztag aller Zeiten – allerdings nicht über Google, sondern über Bing.

Muster 4: Reddit verliert Boden

Am 15. Februar wurde beobachtet, dass Reddit in den SERPs deutliche Rückgänge verzeichnet. Das setzt einen Trend fort, der sich bereits beim December 2025 Core Update abgezeichnet hat: Reddit, das zwischen 2023 und Ende 2025 massiv an Google-Sichtbarkeit gewonnen hatte, verliert diese Gewinne nun schrittweise wieder. Lily Rays Analyse des Dezember-Updates zeigte, dass Reddit nach dem Update kurzzeitig Sichtbarkeit zurückgewann, aber der generelle Abwärtstrend intakt blieb. Für SEOs ist das ein relevantes Signal, weil Reddit in vielen Nischen ein direkter SERP-Konkurrent ist.

Muster 5: „Mt. AI“ – der KI-Content-Absturz

Glenn Gabe hat im Januar den Begriff „Mt. AI“ geprägt – für ein Muster, das er immer häufiger beobachtet: Websites, die massenhaft KI-generierten Content veröffentlichen, erleben zunächst einen steilen Anstieg der Sichtbarkeit, gefolgt von einem ebenso steilen Absturz. Die Form der Traffic-Kurve ähnelt einem Berggipfel – daher der Name. Das zeigt: Reines KI-Scaling funktioniert kurzfristig, ist aber ein zunehmend riskantes Spiel. Google wird besser darin, KI-Inhalte ohne echten Mehrwert zu identifizieren und abzuwerten.

Wichtige Einordnung: Forum-Berichte sind keine repräsentativen Daten. Wer Traffic gewinnt, schreibt selten einen Kommentar. Die Stimmung in den Foren ist naturgemäß negativ verzerrt. Trotzdem: Die Breite und Intensität der Berichte ist ungewöhnlich – und die Tracking-Tools bestätigen die Schwankungen objektiv.

Der DACH-Blickwinkel: Was betrifft uns konkret?

Die meisten Berichte kommen aus dem englischsprachigen Raum. Aber bedeutet das, dass der DACH-Markt verschont bleibt? Leider nein – wenn auch mit wichtigen Nuancen.

Was uns direkt betrifft

Die unbestätigten Ranking-Updates sind global. Wenn Google seine Qualitätssysteme anpasst – sei es das Reviews System, die Bewertung von Listicles oder andere Ranking-Signale – dann wirkt das in allen Sprachräumen. Die Tracking-Tools zeigen auch für Deutschland erhöhte Volatilität, und die Berichte in der Community bestätigen das.

Wer auf seiner Website selbstreferenzielle „Best of“-Listicles einsetzt, sollte das jetzt kritisch hinterfragen. Die Taktik mag im DACH-Raum noch nicht so verbreitet sein wie in den USA, aber sie existiert – insbesondere bei SaaS-Unternehmen und Vergleichsportalen. Und wenn Google diese Muster erkennt und abwertet, macht der Algorithmus keinen Unterschied zwischen .com und .de.

Was uns (noch) nicht betrifft

Das Discover Core Update ist aktuell auf US-englische Nutzer beschränkt. Für den deutschsprachigen Markt erwarte ich den Rollout frühestens im Frühsommer 2026. Das gibt uns Zeit zur Vorbereitung – aber eben auch eine klare Handlungsaufforderung. Wer seine Discover-Baseline jetzt in der Google Search Console erfasst, kann beim Deutschland-Rollout sofort die Auswirkungen messen.

Was wir beobachten sollten

Die Verknüpfung zwischen klassischem SEO und KI-Sichtbarkeit wird enger. Lily Rays Analyse zeigt, dass Sichtbarkeitsverluste in der organischen Suche auch die Präsenz in AI Overviews, AI Mode und sogar in externen KI-Systemen wie ChatGPT beeinflussen. Das bedeutet: Wer bei Google an Sichtbarkeit verliert, verliert zunehmend auch in der KI-getriebenen Suche. Die Zeiten, in denen man SEO und GEO getrennt betrachten konnte, sind vorbei. Die Systeme hängen zusammen – und das sollte deine Strategie für strukturierte Daten und AI Overviews beeinflussen. Wer seine KI-Sichtbarkeit erstmals messen will, findet im neuen Bing AI Performance Dashboard eine erste belastbare Datenquelle – Google liefert vergleichbare KI-Metriken bisher nicht.

Dein Fahrplan: Was du jetzt tun solltest

Genug Analyse – kommen wir zum Handeln. Hier ist mein konkreter Fahrplan für die aktuelle Situation.

Sofortmaßnahmen (diese Woche)

Priorität Aktion Aufwand
1 Setze eine GSC-Annotation für den 15. Februar mit dem Vermerk „Anhaltende Volatilität Feb 2026″ 2 Min.
2 Exportiere GSC-Daten (Klicks, Impressionen, CTR, Position) der letzten 90 Tage als Baseline 10 Min.
3 Prüfe, ob du selbstreferenzielle „Best of“-Listicles auf deiner Website hast – und bewerte sie ehrlich 30 Min.
4 Vergleiche deine Discover-Performance separat von deiner Search-Performance in der GSC 15 Min.

Strategische Maßnahmen (Februar–März 2026)

Thematische Tiefe statt Breite. Die Muster der letzten Monate sind eindeutig: Google belohnt Spezialisierung. Wer in einem Thema zur Autorität wird, ist weniger anfällig für Volatilität als jemand, der zu allem etwas schreibt. Das Hub-and-Spoke-Modell ist dafür der richtige Rahmen – und die aktuelle Volatilität unterstreicht seine Bedeutung. Gleichzeitig solltest du schwächelnde Inhalte identifizieren: Content, der langsam an Sichtbarkeit verliert, zieht in Phasen wie dieser die gesamte Domain nach unten.

E-E-A-T operationalisieren. Kein leeres Buzzword, sondern konkretes Handwerk: Autorenprofile mit nachweisbarer Expertise, Quellenangaben in Artikeln, echte Erfahrungsberichte statt generischer Texte. Mein E-E-A-T-Praxisguide gibt dir dafür eine detaillierte Anleitung.

KI-Content kritisch prüfen. Glenn Gabes „Mt. AI“-Muster zeigt: Wer auf reines KI-Scaling setzt, baut auf Sand. Wenn du KI-generierte Texte einsetzt, stelle sicher, dass menschliche Expertise, redaktionelle Kontrolle und echte Insights enthalten sind. Reines KI-Scaling ohne Mehrwert ist ein Ticket für den nächsten Absturz.

Verstehe, wie Google wirklich arbeitet. In volatilen Phasen hilft es enorm, die Grundmechaniken zu kennen. Mein Artikel über den Google-Algorithmus vom Crawling bis zum Ranking gibt dir das nötige Grundlagenwissen, um Schwankungen besser einzuordnen.

Diversifizierung ernst nehmen. Wer seinen gesamten Traffic über Google bezieht, ist bei jedem Update existenziell gefährdet. Die Berichte aus den Foren zeigen: Manche Shop-Betreiber machen ihre besten Umsätze über Bing, während Google-Traffic einbricht. Das sollte ein Weckruf sein.

Was du NICHT tun solltest

Keine größeren technischen Änderungen während der Volatilität (URL-Struktur, CMS-Wechsel, Redesign). Keine panischen Content-Löschungen oder Noindex-Aktionen ohne Datengrundlage. Kein voreiliges „2026″-Update im Titel bestehender Artikel nur für Recency-Signale – genau das ist eine der Taktiken, die Google aktuell abwertet.

Profi-Tipp: Vergleiche nicht einzelne Tage, sondern 7-Tage-Durchschnitte gegen den Vormonat. Tägliche Schwankungen sind bei dieser Volatilität normal und verzerren das Bild. Erst der Wochenvergleich zeigt, ob du einen echten Trend hast oder nur im Rauschen steckst.

Häufige Fragen (FAQ)

Ist die Ranking-Volatilität Teil eines bestätigten Google Core Updates?

Nein. Das einzige aktuell bestätigte Update ist das February 2026 Discover Core Update, das ausschließlich Google Discover betrifft. Die Schwankungen in der organischen Suche laufen ohne offizielle Bestätigung. Das ist frustrierend, aber Googles Standardvorgehen bei kleineren oder iterativen Anpassungen. Was wir wissen: Die Intensität deutet auf mehr als nur Routine-Fluktuationen hin. Glenn Gabes Reviews-System-Hypothese und Lily Rays Listicle-Analyse liefern plausible Erklärungsansätze.

Muss ich meine SEO-Strategie komplett überarbeiten?

Nein – aber du solltest sie überprüfen. Wenn deine Strategie auf echtem Mehrwert, thematischer Expertise und sauberer Technik basiert, bist du grundsätzlich gut aufgestellt. Wer allerdings auf selbstreferenzielle Listicles, massenhaft KI-generierten Content oder oberflächliche Vergleichsartikel setzt, hat ein konkretes Risiko. Die Grundlagen dessen, wie Google vom Crawling bis zum Ranking arbeitet, ändern sich nicht – aber die Qualitätsansprüche steigen stetig.

Wann wird sich die Situation stabilisieren?

Ehrliche Antwort: Ich weiß es nicht – und wer behauptet, es zu wissen, spekuliert. Was ich beobachte, ist ein Trend zu permanenter Iteration statt diskreter Updates. Das könnte bedeuten, dass die klassischen Ruhephasen zwischen Updates kürzer werden oder ganz verschwinden. Meine Empfehlung: Richte dein Monitoring darauf ein, mit kontinuierlicher Volatilität umzugehen, statt auf die nächste „Ruhephase“ zu warten.

Sind auch kleinere Websites betroffen oder nur große Publisher?

Beides. Die spektakulärsten Berichte kommen von großen Publishern mit Millionen-Traffic, aber auch kleinere spezialisierte Websites berichten von Schwankungen. Der Unterschied: Spezialisierte Nischenseiten mit echter Expertise scheinen weniger stark betroffen zu sein als breite Generalisten-Portale. Das passt zum Muster, das ich bereits in der Januar-Analyse beschrieben habe – Spezialisten werden belohnt, Generalisten abgewertet.

Betrifft das auch die Sichtbarkeit in AI Overviews und ChatGPT?

Ja, indirekt. Lily Rays Analyse zeigt, dass Sichtbarkeitsverluste in der organischen Suche häufig auch die Präsenz in KI-generierten Antworten beeinflussen. Viele KI-Systeme nutzen Googles organische Ergebnisse als Datengrundlage. Wer dort an Sichtbarkeit verliert, taucht auch seltener in AI Overviews, AI Mode und externen LLMs auf. Für eine zukunftssichere Strategie empfehle ich meinen Artikel zum Zusammenspiel von SEO, AIO, GEO und LLMO.

Fazit: Volatilität als neue Normalität

Meine Überzeugung nach über 12 Jahren SEO: Was wir seit Ende 2025 erleben, ist kein Ausrutscher – es ist ein Paradigmenwechsel in der Art, wie Google seine Systeme weiterentwickelt.

Wir erleben gerade den Übergang von diskreten, angekündigten Updates hin zu kontinuierlicher Iteration. Google testet, kalibriert und justiert permanent – bei Discover, bei Reviews, bei der Bewertung von Listicles, bei der Gewichtung von KI-Content. Und das wird sich nicht ändern. Im Gegenteil: Mit dem zunehmenden Einfluss von AI Overviews und dem AI Mode kommen weitere Variablen hinzu, die Rankings beeinflussen.

Was bleibt als Konstante? Qualität. Echte Expertise. Inhalte, die Menschen wirklich weiterhelfen. Die Websites, die diese Turbulenzen am besten überstehen, sind nicht die mit den meisten Listicles, dem aggressivsten KI-Scaling oder dem cleversten Recency-Hack – sondern die mit nachweisbarer E-E-A-T, thematischer Tiefe und redaktioneller Unabhängigkeit.

Ich beobachte diese Branche lang genug, um eines mit Sicherheit sagen zu können: Jedes Mal, wenn Google die Daumenschrauben anzieht, gibt es zwei Gruppen. Die eine klagt über Verluste. Die andere nutzt die Gelegenheit, die eigene Position auszubauen. In welcher Gruppe du landest, entscheidet sich nicht am 15. Februar – sondern in den nächsten Wochen.

Mein Tipp: Nutze die aktuelle Phase als Anlass für eine ehrliche Bestandsaufnahme. Prüfe deine Inhalte auf Substanz, stärke deine Expertise mit eigenen Daten und Erfahrungen, und dokumentiere alles in der GSC. Die SERPs werden weiter schwanken. Deine Substanz nicht.
Christian Ott - Gründer von www.seo-kreativ.de

Christian Ott – SEO kreativ denken & Wissen teilen

Als Gründer von SEO-Kreativ lebe ich meine 2014 entdeckte Leidenschaft für SEO. Mein Weg vom Hobby-Blogger zum SEO-Experten und Product Developer hat dabei meinen Ansatz geprägt: Ich teile Wissen verständlich, praxisnah und ohne Fachchinesisch.