Content Audit & Content Pruning: Toten Content systematisch finden, bewerten und bereinigen

Content Audit & Content Pruning: Toten Content systematisch finden, bewerten und bereinigen

⚡️ TL;DR

Toter Content ist nicht gleich toter Content: Unterscheide zwischen Seiten, die nie performt haben und solchen, die langsam verfallen (Content Decay) – denn die Ursache bestimmt die Maßnahme.

Mein 4-Punkte-Scoring-Modell: Bewerte jede URL anhand von Klick-Trend, Query-Abdeckung, Backlink-Wert und interner Verlinkungstiefe – mit konkreten Schwellenwerten und einem durchgerechneten Praxis-Beispiel.

Content Pruning ist kein Löschprojekt: Der Entscheidungsbaum hat vier Werkzeuge – Refresh, Consolidation, Noindex und Remove und die richtige Wahl hängt von der Diagnose ab, nicht vom Bauchgefühl.

Wenn ich bei einem neuen Kunden den ersten Content Audit mache, ist das Ergebnis fast immer das gleiche – zwischen 40 und 60 Prozent aller indexierten URLs liefern keinen einzigen organischen Klick. Bei einem Publisher-Projekt waren es sogar über 70 Prozent.

Das Fatale: Die meisten Websitebetreiber wissen das nicht einmal. Sie fokussieren sich auf den nächsten Blogartikel, den nächsten Ratgeber – und merken nicht, dass sich im Hintergrund ein Berg an totem Ballast aufgetürmt hat, der ihre besten Seiten aktiv nach unten zieht.

Dieser Artikel ist dein kompletter Leitfaden – von der Diagnose bis zur Therapie. Im ersten Teil zeige ich dir meinen Audit-Workflow mit Scoring-Modell und durchgerechnetem Praxis-Beispiel. Im zweiten Teil kommt das Content Pruning: der Entscheidungsbaum, die technische Umsetzung jeder Maßnahme und ein konkretes Vorher/Nachher-Ergebnis.

Die gute Nachricht: In meinen Audits zeigt sich, dass 30–40 % der vermeintlich toten Seiten wiederbelebt werden können – wenn man die richtige Diagnose stellt.

Warum du einen Content Audit brauchst

Stell dir deine Website wie ein Restaurant vor. Du hast 200 Gerichte auf der Karte, aber 120 davon bestellt niemand. Die Küche ist trotzdem damit beschäftigt, alle Zutaten frisch zu halten. Die 80 Gerichte, die deine Gäste wirklich wollen, leiden unter dem Overhead.

Bei deiner Website funktioniert es genauso – nur heißen die Ressourcen anders:

Crawl Budget wird verschwendet. Google crawlt pro Domain eine begrenzte Anzahl von Seiten. Jeder Crawl-Durchgang, der auf einer toten Seite landet, fehlt bei deinem wichtigsten Content. Bei Websites mit über 10.000 URLs habe ich regelmäßig gesehen, dass Google einen Großteil der Crawl-Kapazität auf Seiten ohne jeglichen Mehrwert verbraucht.

Deine Topical Authority wird verwässert. Seit März 2024 ist das ehemalige Helpful Content System fest in Googles Core Ranking Systems integriert. Google nutzt neben seitenbezogenen Signalen auch seitenweite Qualitätssignale – und genau hier wird toter Content zum Problem. Wenn ein erheblicher Anteil deiner Seiten keinen Mehrwert liefert, beeinflusst das die Bewertung deiner gesamten Domain.

Link Equity versickert. Jeder interne Link zu einer toten Seite leitet wertvolle Link-Power in eine Sackgasse. In einem Audit habe ich eine Website gesehen, bei der über 300 interne Links auf Seiten zeigten, die seit zwei Jahren keinen einzigen Klick generiert hatten.

Keyword-Kannibalisierung entsteht schleichend. Drei ähnliche Blogartikel zum gleichen Thema aus 2019, 2021 und 2023? Google weiß nicht, welche Seite es ranken soll – und entscheidet sich im Zweifelsfall für keine richtig.

Aus der Praxis: Bei einem E-Commerce-Kunden haben wir nach dem Content Audit 35 % des Contents entfernt oder konsolidiert. Das Ergebnis nach 10 Wochen: 28 % mehr organische Klicks auf die verbliebenen Seiten – ohne einen einzigen neuen Artikel.

Wann ist der richtige Zeitpunkt?

Es gibt Situationen, in denen ein Content Audit nicht optional ist, sondern Pflicht:

Vor einem Relaunch. Du baust deine Website neu auf oder migrierst auf ein neues CMS. Ohne Audit riskierst du, toten Ballast 1:1 in die neue Website zu übernehmen – und dazu noch Redirect-Ketten für Seiten zu bauen, die niemand braucht. Führe den Audit mindestens 4–6 Wochen vor dem geplanten Relaunch durch.

Nach einem Core Update mit Sichtbarkeitsverlust. Wenn dein organischer Traffic nach einem Google Core Update eingebrochen ist, zeigt ein Content Audit, ob ein hoher Anteil schwacher Seiten die Ursache sein könnte.

Bei stagnierendem Wachstum trotz neuem Content. Du publizierst regelmäßig, aber der Traffic bewegt sich nicht? Oft liegt das Problem nicht am neuen Content, sondern am bestehenden – Kannibalisierung und verwässerte Topical Authority bremsen dich aus.

Als jährliche Routine. Einmal pro Jahr sollte jede Website mit mehr als 50 indexierten Seiten einen vollständigen Audit durchlaufen. Je länger du wartest, desto größer wird der Aufwand.

Die zwei Typen von totem Content

Ein Fehler, den ich immer wieder sehe: Toter Content wird als eine einzige Kategorie behandelt. Aber es gibt einen fundamentalen Unterschied, der die Maßnahme bestimmt.

Typ 1: Content, der nie performt hat

Diese Seiten hatten von Anfang an keine Chance. Typische Ursachen: Das Thema hat kein Suchvolumen, die Seite liegt in einer tiefen Verzeichnisebene mit kaum internen Links, oder der Inhalt verfehlt den Search Intent.

Das Entscheidende: Bevor du so eine Seite als „tot“ abstempelst, prüfe immer zuerst die interne Verlinkung. Ich habe oft erlebt, dass eine Seite „tot“ aussah, aber in Wirklichkeit einfach nur verwaist war – von keiner anderen Seite verlinkt. In dem Fall ist nicht der Content das Problem, sondern deine Seitenarchitektur.

Typ 2: Content im Verfall (Content Decay)

Die deutlich gefährlichere Kategorie. Diese Seiten haben irgendwann funktioniert – sie hatten Klicks, Rankings, vielleicht Conversions. Aber über Monate sind die Metriken kontinuierlich gesunken.

Content Decay erkennst du an einem klaren Muster in der Google Search Console: Sinkende Impressionen über mehrere Quartale, gefolgt von sinkenden Klicks, gefolgt von einem Abrutschen der durchschnittlichen Position. Wenn du dieses Muster siehst, ist es oft noch nicht zu spät – aber du musst schnell handeln.

MerkmalTyp 1: Nie performtTyp 2: Content Decay
Klick-HistorieDurchgehend null oder nahe nullEhemals gut, fallender Trend über 6+ Monate
Typische UrsacheKein Suchvolumen, fehlende Verlinkung, Intent-VerfehlungVeraltete Infos, neue Konkurrenz, veränderter Search Intent
Erste MaßnahmeInterne Verlinkung prüfenAktualität und Intent-Match prüfen
RettungschanceGering (10–20 %), außer bei VerlinkungsproblemenHoch (50–70 %), wenn die Nachfrage noch existiert
Wichtig: Content Decay wird besonders gefährlich bei E-E-A-T-sensiblen Themen (Finanzen, Gesundheit, Recht). Ein veralteter Ratgeber mit falschen Informationen schadet nicht nur deinem Ranking – er schadet deiner Reputation.

Mein Content-Audit-Workflow in vier Stufen

Ich arbeite mit einem vierstufigen Prozess, der GSC-Daten, Crawl-Daten, Backlink-Daten und Nutzermetriken zusammenführt. Das Ziel ist kein Stapel URLs zum Löschen, sondern ein vollständiges Bild jeder Seite.

Stufe 1: Performance-Daten aus der Search Console

Exportiere deine kompletten URL-Performance-Daten über die Google Search Console API oder BigQuery. Das Web-Interface zeigt bei größeren Websites nur einen Bruchteil. Exportiere mindestens 12 Monate, besser 16, um saisonale Schwankungen abzudecken.

Erstelle in Google Sheets folgende Spalten pro URL: Gesamtklicks (12 Monate), Gesamtimpressionen, durchschnittliche Position und den Klick-Trend. Vergleiche die Klicks der letzten 3 Monate mit den 3 Monaten davor. Steigend, stabil oder fallend? Diese Trendrichtung ist aussagekräftiger als der absolute Wert.

Query-Abdeckung pro URL: Zähle die einzigartigen Suchanfragen, für die jede URL Impressionen erhalten hat. Du bekommst diesen Wert per Pivot-Tabelle über den seitenbasierten GSC-Export. Eine URL mit 80+ verschiedenen Queries hat breite thematische Relevanz – eine mit unter 5 ist ein Warnsignal.

Stufe 2: Crawl-Daten mit Screaming Frog

Crawle deine Website und extrahiere per Custom Extraction (XPath) das Veröffentlichungsdatum und das letzte Aktualisierungsdatum jeder Seite. Kombiniere das mit der Anzahl der eingehenden internen Links pro URL. Über VLOOKUP oder INDEX/MATCH verknüpfst du Crawl-Daten mit deinen GSC-Daten.

Stufe 3: Backlink-Daten ergänzen

Dieser Schritt fehlt in den meisten Content-Audit-Anleitungen – dabei ist er entscheidend. Die Google Search Console zeigt dir zwar externe Links, aber nicht deren Qualität.

Exportiere die Backlink-Daten pro URL aus Ahrefs Site Explorer, Semrush (Backlink Analytics) oder Sistrix (Links-Modul). Was du brauchst: Anzahl der verweisenden Domains und eine grobe Qualitätseinschätzung (Domain Rating, Authority Score oder Sichtbarkeitsindex).

Eine URL mit null Klicks, aber drei Backlinks von starken Domains ist kein Löschkandidat – sie hat Wert, der per 301-Redirect erhalten werden sollte.

Stufe 4: GA4-Engagement-Daten

Der Baustein, den viele Audits weglassen: Nutzerverhalten. Exportiere aus GA4 die Engagement-Rate und Sitzungsdauer pro Landingpage. Eine Seite mit null organischen Klicks, die aber über Newsletter oder Social Media regelmäßig Sessions generiert, ist kein toter Content – sie hat nur ein SEO-Problem. Diese Unterscheidung kann dich davor bewahren, wertvollen Content versehentlich zu löschen.

Praxis-Tipp: Nutze RegEx-Filter in der Google Search Console, um deine URLs vorab nach Verzeichnissen zu segmentieren (z. B. /blog/, /ratgeber/, /produkte/). So arbeitest du dich Bereich für Bereich durch, statt vor einer riesigen Gesamtliste zu sitzen.

Das 4-Punkte-Scoring-Modell

Nachdem du alle Daten zusammengeführt hast, brauchst du ein System, um jede URL objektiv zu bewerten. Ich nutze ein Scoring-Modell mit vier Dimensionen, das ich über Jahre in Kundenprojekten verfeinert habe. Jede Dimension wird mit 0 bis 3 Punkten bewertet – am Ende hast du einen Score von 0 bis 12.

Dimension0 Punkte1 Punkt2 Punkte3 Punkte
Klick-Trend (3 Mon.)0 Klicks, kein TrendFallend, unter 10 Klicks/MonatStabil, 10–50 Klicks/MonatSteigend oder über 50 Klicks/Monat
Query-AbdeckungUnter 5 Queries in 12 Monaten5–20 Queries20–80 QueriesÜber 80 Queries
Backlink-WertKeine externen LinksNur Spam/Low-Quality-Domains1–3 Links von relevanten Domains4+ Links oder starke Domains (DR 50+)
Interne VerlinkungstiefeVerwaist (0 interne Links)1–2 interne Links, tiefe Ebene3–5 interne Links6+ interne Links, gute Anbindung
Hinweis: Die Schwellenwerte sind Richtwerte für mittelgroße Websites (500–5.000 Seiten). Bei kleineren Websites passe ich die Klick-Schwellen nach unten an, bei großen Publisher-Portalen nach oben. Der Rahmen bleibt gleich – die Skala nicht.

Praxis-Beispiel: Eine URL durchs Scoring-Modell

Damit das Scoring-Modell nicht abstrakt bleibt, hier ein durchgerechnetes Beispiel aus einem Kundenprojekt (anonymisiert). Die Website ist ein mittelgroßer B2B-Ratgeber mit rund 800 indexierten Seiten.

URL: /ratgeber/crm-software-vergleich-2021/

DimensionDatenScore
Klick-TrendLetzte 3 Monate: 4 Klicks. Vorperiode: 18 Klicks. → Fallend, unter 10/Monat1
Query-Abdeckung38 verschiedene Queries in 12 Monaten (u. a. „crm vergleich“, „crm software test“)2
Backlink-Wert2 externe Links: 1x Branchenblog (DR 35), 1x Hochschul-Seite (DR 62)2
Interne Verlinkungstiefe1 interner Link (aus der Sidebar-Navigation)1

Gesamt-Score: 6 von 12 – Grauzone

Die Query-Abdeckung von 38 zeigt, dass Google die Seite für relevante Suchanfragen auf dem Schirm hat. Der fallende Klick-Trend ist ein klassisches Content-Decay-Signal: Die Jahreszahl „2021″ im Titel signalisiert Veraltetheit. Und die schwache interne Verlinkung bremst zusätzlich.

Empfehlung: Content Refresh – Jahreszahl entfernen, Inhalte aktualisieren, 3–4 interne Links von thematisch passenden Seiten ergänzen, über das Hub-and-Spoke-Modell einbinden. Der starke Backlink von der Hochschule allein macht diese Seite zu wertvoll zum Löschen.

Zum Vergleich – eine URL mit Score 1 aus demselben Projekt: /blog/frohe-weihnachten-2020/ hatte null Klicks, null Queries, keine Backlinks und nur einen internen Link. Ein klarer Fall für Entfernung per 410.

Der Unterschied: Ohne Scoring-Modell hätten beide URLs gleich ausgesehen – „kaum Klicks, wahrscheinlich löschen.“ Das Modell zeigt, dass die eine gerettet werden kann und die andere nicht. Genau diese Differenzierung macht einen guten Content Audit aus.

Vom Score zur Maßnahme: Der Entscheidungsbaum

Jetzt beginnt der zweite Teil – Content Pruning. Der Audit liefert die Diagnose, der Entscheidungsbaum die Therapie. Google warnt in den eigenen Richtlinien ausdrücklich: Das Entfernen vieler älterer Inhalte, nur um die Website „neu“ erscheinen zu lassen, funktioniert nicht. Pruning braucht die klaren Daten, die du jetzt hast.

Score-basierte Einordnung

Score 0–3: Klarer Handlungsbedarf. Diese Seiten liefern weder Traffic noch haben sie strukturellen Wert. Aber auch hier: Prüfe, ob die Seite verwaist ist. Eine verwaiste Seite mit gutem Thema ist ein Verlinkungsproblem, kein Löschkandidat.

Score 4–6: Grauzone – hier wird der Audit wertvoll. Viele Seiten in dieser Zone haben Potenzial. In meinen Audits landen 30–40 % aller URLs hier. Investiere die meiste Zeit in diese Gruppe.

Score 7–12: Finger weg oder allenfalls Feintuning.

Der Entscheidungsbaum für Scores unter 7

FrageJaNein
Hat das Thema noch Suchnachfrage?→ Weiter→ Geschäftlicher Nutzen ohne SEO? Ja: Noindex. Nein: Entfernen.
Gibt es eine andere URL zum selben Thema?→ Consolidation→ Weiter
Ist der Content als Grundlage brauchbar?→ Refresh→ Entfernen und ggf. neu erstellen

In der Praxis sind 80 % der Entscheidungen mit diesem Baum in unter einer Minute pro URL getroffen.

Maßnahme 1: Content Refresh

Wann anwenden: Die Seite hat ein Thema mit Suchnachfrage, keine Duplikate auf deiner Website, und der bestehende Content ist als Basis brauchbar. Das ist die Maßnahme mit dem besten ROI – ein Refresh bringt oft innerhalb von 4–6 Wochen messbare Ergebnisse und kostet einen Bruchteil eines neuen Artikels.

Search Intent prüfen: Was Google heute auf Seite 1 zeigt, kann sich von dem unterscheiden, was vor zwei Jahren dort stand. Wenn die SERP sich von Ratgebern zu Vergleichsseiten verschoben hat, musst du dein Format anpassen.

Fakten und Beispiele aktualisieren: Veraltete Statistiken, nicht mehr existierende Tools, geänderte Richtlinien – alles raus, alles neu. Achte besonders auf Jahreszahlen in Titeln und URLs.

E-E-A-T-Signale ergänzen: Eigene Erfahrung einbringen, Quellen verlinken. Füge einen Absatz hinzu, in dem du deine persönliche Erfahrung mit dem Thema einbringst – das unterscheidet deinen Artikel von generischen Ratgebern.

Interne Verlinkung stärken: Verlinke die refreshte Seite von 3–5 thematisch relevanten Seiten aus.

Veröffentlichungsdatum aktualisieren: Aber nur bei substanzieller Überarbeitung. Ein reines Datums-Update ohne inhaltliche Änderung ist Artificial Freshening – und Google erkennt das.

Aus der Praxis: Bei einem Kunden habe ich 12 Content-Decay-Artikel systematisch refresht (Intent-Anpassung, aktuelle Daten, E-E-A-T-Elemente). 9 davon sind innerhalb von 8 Wochen wieder in die Top 10 zurückgekehrt – ohne einen einzigen neuen Backlink.

Maßnahme 2: Content Consolidation

Wann anwenden: Zwei oder mehr URLs bedienen denselben Search Intent – klassische Keyword-Kannibalisierung.

Nimm den besten Content aus allen beteiligten Seiten, erstelle daraus einen umfassenden Artikel und leite die schwächeren URLs per 301-Redirect auf die konsolidierte Seite. Welche URL bleibt? Prüfe drei Faktoren: Welche hat die stärksten Backlinks? Welche hat die höchste Query-Abdeckung? Welche hat die bessere URL-Struktur?

Alternative: Canonical statt Redirect

Es gibt Fälle, in denen du zwei ähnliche Seiten behalten willst – etwa weil sie verschiedene Nutzerbedürfnisse bedienen, obwohl sie thematisch überlappen. Ein Canonical Tag ist dann die richtige Wahl: Setze <link rel="canonical" href="..."> auf die schwächere Seite und verweise auf die stärkere. Google konsolidiert die Ranking-Signale, aber beide Seiten bleiben für Nutzer erreichbar.

Faustregel: Wenn die schwächere Seite eigenständigen Nutzen für Besucher hat, nutze Canonical. Wenn sie keinen eigenständigen Zweck mehr hat, nutze 301.

Praxis-Tipp: Erstelle vor der Consolidation eine Mapping-Tabelle: Quell-URL → Ziel-URL → zu übernehmende Inhalte → zu übernehmende Keywords. So verlierst du bei der Zusammenlegung nichts Wertvolles.

Maßnahme 3: Entfernen – 301, 410, 404 oder Noindex?

Wann anwenden: Kein Suchvolumen mehr, kein geschäftlicher Nutzen, keine wertvollen Backlinks, kein Consolidation-Partner.

301-Redirect

Nutze ihn, wenn die Seite externe Backlinks von relevanten Domains hat. Leite auf die thematisch nächste Seite weiter – ein 301 auf die Startseite ist eine verschenkte Chance und wird von Google möglicherweise wie ein Soft-404 behandelt.

HTTP 410 (Gone)

Nutze ihn, wenn keine wertvollen Backlinks vorhanden sind und die Seite dauerhaft entfernt wird. Googles John Mueller sagt zwar, der Unterschied zwischen 404 und 410 sei minimal – „on the order of a couple days“. Aber kontrollierte Experimente zeigen, dass 410-URLs rund 50 % seltener erneut gecrawlt werden. Bei großen Websites summiert sich das im Crawl Budget.

WordPress-Umsetzung: Per .htaccess mit RewriteRule ^ratgeber/alter-artikel/$ - [G] (das Flag [G] sendet automatisch 410). Alternativ per Plugin: „Redirection“ kann neben 301 auch 410-Statuscodes setzen.

HTTP 404 (Not Found)

Nutze ihn, wenn du den Server nicht für individuelle Statuscodes konfigurieren kannst.

Noindex (Meta Robots)

Nutze ihn, wenn die Seite für Nutzer weiterhin wertvoll ist, aber nicht im Google-Index erscheinen soll. Typische Fälle: Support-Seiten, Login-Bereiche, Tag-Archive, Kampagnen-Landingpages über Ads. Ein <meta name="robots" content="noindex"> entfernt die Seite aus dem Index, ohne sie für direkte Besucher zu löschen – keine Broken Links, keine 404-Seite für Newsletter-Leser.

WordPress-Umsetzung: Yoast SEO und Rank Math bieten im Editor jeder Seite eine Noindex-Option. Für Massen-Noindex (z. B. alle Tag-Seiten) konfigurierst du das in den globalen Taxonomie-Einstellungen.

Wichtig – gestaffelt vorgehen: Lösche nicht alles auf einmal. Starte mit den klarsten Fällen (Score 0–1) und beobachte zwei Wochen die Auswirkungen. Bei einem Publisher-Kunden haben wir über 2.000 Seiten in fünf Tranchen über 10 Wochen entfernt – so konnten wir jederzeit nachsteuern.

Sonderfall: KI-Content prunen

Ein Thema, das 2025 und 2026 massiv an Relevanz gewinnt: Viele Websites haben in den letzten zwei Jahren im großen Stil KI-generierte Inhalte publiziert – teils Hunderte von Seiten per ChatGPT oder ähnlichen Tools. Einige ranken, aber ein erheblicher Teil performt nicht und belastet die Domain.

KI-Content hat typische Schwächen, die im Audit auffallen: Er ist oft thematisch redundant (drei Varianten desselben Themas wegen leicht variierter Prompts), faktisch oberflächlich und verfehlt häufig den Search Intent, weil er auf Basis allgemeinen Wissens statt realer SERP-Analyse erstellt wurde.

Ich behandle KI-Content im Scoring-Modell nicht anders – aber ich ergänze eine Prüfung: Enthält die Seite eigene Erfahrung, Meinung oder originäre Daten? Wenn nicht, wird sie durch jeden Konkurrenzartikel mit echtem E-E-A-T verdrängt. In der Praxis: Die besten KI-Artikel werden per Refresh mit Expertenwissen angereichert, redundante werden konsolidiert, der Rest entfernt.

Tipp: Wenn du 500 KI-Artikel auf einmal entfernst, wird Google das registrieren. Beginne mit den Seiten, die null Klicks, null Impressionen und null Backlinks haben – das sind die risikofreien Löschungen.

Die Nacharbeit, die den Unterschied macht

Der häufigste Fehler: Content wird entfernt, aber die Nacharbeit fehlt. Ohne diese Schritte verschenkst du einen großen Teil des Effekts.

Interne Links aufräumen. Jeder interne Link zu einer entfernten Seite ist jetzt ein Broken Link. Crawle deine Website nach dem Pruning erneut mit Screaming Frog und identifiziere alle 404/410-Ziele interner Links. Entferne sie oder ersetze sie durch Links auf die neuen Zielseiten.

XML-Sitemap aktualisieren. Entferne alle gelöschten URLs aus deiner Sitemap und reiche sie in der Google Search Console neu ein. In WordPress erledigen Yoast und Rank Math das automatisch bei Papierkorb oder Entwurf – aber prüfe es manuell bei .htaccess-Löschungen.

Ergebnisse dokumentieren. Erstelle eine Anmerkung in der Google Search Console mit Datum und Umfang deines Prunings. Beobachte über 8–12 Wochen die Entwicklung. Erste positive Signale zeigen sich nach 4–6 Wochen, der volle Effekt stabilisiert sich nach etwa 3 Monaten. Wer die Auswirkungen sauber von allgemeinen Google-Schwankungen trennen will, sollte parallel die SERP-Volatilität im Auge behalten.

Regelmäßigen Rhythmus etablieren. Content Pruning ist kein einmaliges Projekt. Ein quartalsweiser Mini-Check funktioniert am besten: Null-Klick-URLs der letzten 3 Monate prüfen, Content-Decay-Muster erkennen und frühzeitig gegensteuern.

Vorher vs. Nachher: Ein Praxis-Beispiel

Anonymisiertes Beispiel aus einem realen Kundenprojekt: ein mittelgroßer B2B-Ratgeber-Blog mit 420 indexierten Seiten.

Ausgangslage

Von den 420 Seiten lieferten 189 (45 %) keinen einzigen organischen Klick in 12 Monaten. Der Audit ergab: 147 URLs mit Score 0–3 (35 %), 152 in der Grauzone 4–6 (36 %), 84 im Bereich 7–9 (20 %) und 37 Top-Performer mit Score 10–12 (9 %).

Durchgeführte Maßnahmen (5 Tranchen, 10 Wochen)

94 Seiten per 410 entfernt (Score 0–2, keine Backlinks). 23 Seiten per 301 weitergeleitet (Backlinks vorhanden). 18 Seiten per Consolidation zusammengelegt (9 Kannibalisierungspaare). 41 Seiten per Content Refresh aktualisiert. 12 Seiten auf Noindex gesetzt (Support und Kampagnen-LPs).

Ergebnisse nach 12 Wochen

MetrikVorherNachher (Woche 9–12)Veränderung
Indexierte Seiten420293–30 %
Organische Klicks/Woche1.8402.510+36 %
Ø Klicks pro indexierter Seite4,48,6+95 %
Seiten mit 0 Klicks189 (45 %)52 (18 %)–72 %

Der kurzfristige Dip in Woche 2–3 war minimal (ca. 8 % weniger Klicks) und hatte sich in Woche 5 vollständig erholt.

Der wichtigste Wert: Die Klicks pro indexierter Seite haben sich fast verdoppelt. Das zeigt, dass Google die verbleibenden Seiten stärker bewertet – genau der Effekt, den Content Pruning erzielen soll.

Häufige Fragen (FAQ)

Wie oft sollte ich einen Content Audit durchführen?

Mindestens einmal jährlich einen vollständigen Audit. Dazu quartalsweise Mini-Checks: Null-Klick-URLs der letzten 3 Monate in der GSC filtern und Content-Decay-Muster erkennen. Bei Websites mit hoher Publikationsfrequenz empfehle ich monatliche Checks.

Brauche ich zwingend ein kostenpflichtiges SEO-Tool?

Für die Stufen 1 (GSC), 2 (Screaming Frog, kostenlos bis 500 URLs) und 4 (GA4) nicht. Die Backlink-Analyse in Stufe 3 ist der einzige Punkt, an dem ein kostenpflichtiges Tool wie Ahrefs oder Semrush einen echten Unterschied macht. Die GSC zeigt unter „Links“ verweisende Domains – die Daten sind weniger detailliert, reichen aber für einen ersten Audit.

Mein Traffic ist nach dem Pruning zunächst gesunken – ist das normal?

Ja. Ein kurzfristiger Dip in den ersten 2–4 Wochen ist normal. Google muss die Änderungen verarbeiten und den Index stabilisieren. Wenn der Dip nach 6–8 Wochen nicht aufholt, prüfe, ob du versehentlich Seiten entfernt hast, die über andere Kanäle Traffic gebracht haben – genau deswegen ist die GA4-Prüfung in Stufe 4 so wichtig.

Wie unterscheide ich toten Content von schlecht verlinktem Content?

Genau das zeigt Dimension 4 des Scoring-Modells (Interne Verlinkungstiefe). Wenn eine Seite null Klicks hat, aber auch nur 0–1 interne Links, teste zuerst bessere Verlinkung. Verlinke die Seite von 3–5 passenden Seiten aus und beobachte 4–6 Wochen. Wenn sich dann nichts tut, liegt das Problem woanders.

Macht ein Content Audit auch bei kleinen Websites unter 100 Seiten Sinn?

Der Crawl-Budget-Effekt ist bei kleinen Websites weniger dramatisch. Aber die Content-Decay-Analyse lohnt sich trotzdem – gerade weil jede einzelne Seite proportional mehr Gewicht hat. Ein veralteter Ratgeber auf einer 50-Seiten-Website schadet prozentual deutlich mehr als auf einer 5.000-Seiten-Domain.

Fazit: Weniger ist mehr – wenn die Diagnose stimmt

Die Websites mit den besten Rankings sind nicht die mit dem meisten Content. Es sind die, bei denen jede Seite ihren Platz verdient hat.

In über 12 Jahren SEO habe ich gelernt: Der Content Audit ist der wichtigste Schritt, den die meisten Websitebetreiber überspringen. Er ist nicht sexy, er generiert keine neuen Inhalte, und er macht keinen Spaß. Aber er ist die Grundlage für alles, was danach kommt.

Der vierstufige Workflow (GSC + Screaming Frog + Backlink-Analyse + GA4) gibt dir die Daten. Das 4-Punkte-Scoring-Modell gibt dir die Struktur. Die Zwei-Typen-Unterscheidung (nie performt vs. Content Decay) gibt dir das Verständnis. Und der Entscheidungsbaum (Refresh → Consolidation → Noindex → Remove) gibt dir die Therapie.

Mein Tipp: Starte diese Woche mit einem Schnellcheck: Exportiere deine GSC-Daten der letzten 12 Monate, filtere alle URLs mit null Klicks und schaue dir die Zahl an. Wenn mehr als 40 % deiner indexierten Seiten keine Klicks generieren, ist ein systematischer Content Audit überfällig.

Stell dir vor, du blickst in einem Jahr zurück: Dein Index ist schlank und fokussiert, jede Seite hat ihre Berechtigung, und dein organischer Traffic wächst – nicht weil du mehr publiziert hast, sondern weil du den Mut und die Methodik hattest, das Unnötige loszulassen und das Vorhandene zu stärken.

Christian Ott - Gründer von www.seo-kreativ.de

Christian Ott – SEO kreativ denken & Wissen teilen

Als Gründer von SEO-Kreativ lebe ich meine 2014 entdeckte Leidenschaft für SEO. Mein Weg vom Hobby-Blogger zum SEO-Experten und Product Developer hat dabei meinen Ansatz geprägt: Ich teile Wissen verständlich, praxisnah und ohne Fachchinesisch.