Marketing-Glossar

SEO Check: Unser kompletter Audit-Workflow [mit Tool-Setup]

Zuletzt aktualisiert: 03.04.2026 · Redaktion Think11

SEO Check: Der komplette Workflow, den wir bei jedem Projekt durchlaufen

Ein SEO Check ist nicht einfach nur “mal kurz die Website angucken”. Nein. Ein echtes SEO Audit ist systematisch. Strukturiert. Es geht systematisch durch technische Basics, prüft die Inhalte und untersucht die Backlink-Profile. Wir haben einen Workflow entwickelt, den wir bei über 50 Projekten eingesetzt haben. Und ja, er funktioniert verdammt gut.

Was ist ein SEO Check eigentlich?

Ein SEO Check ist eine strukturierte Analyse deiner Website nach SEO-Kriterien. Aber ehrlich: Viele Agenturen liefern einen PDF-Report mit bunten Grafiken ab. Und dann? Nichts passiert. Bei uns ist ein SEO Check ein Actionable Audit — du bekommst konkrete Prioritäten, konkrete Zahlen und konkrete nächste Schritte. Kein Bullshit, keine Standardtexte.

Die drei Saeulen eines guten SEO Checks:

  • Technisch: Kann Google die Site crawlen? Sind Core Web Vitals ok? Responsive Design?
  • OnPage: Stimmt die Keyword-Strategie? Sind die Inhalte gut strukturiert? Interne Verlinkung?
  • OffPage: Wie sieht das Backlink-Profil aus? Gibt es toxische Links? Authority-Verteilung?

Phase 1: Der technische SEO Check

Hier trennt sich die Spreu vom Weizen. Eine Website kann noch so tolle Inhalte haben — wenn Google sie nicht crawlen kann, ist vorbei.

Die erste Crawl mit Screaming Frog

Screaming Frog ist unser Werkzeug der Wahl. Nicht weil es das beste aussieht, sondern weil es die meisten Daten liefert. Wir nutzen es so:

  1. Config 1: Baseline Crawl (Standard)

    • Crawl mode: Spider
    • User-Agent: “Mozilla/5.0… Googlebot/2.1”
    • Request rate: 20 threads (conservative, nicht zu aggressiv)
    • Robots.txt beachten: JA
    • Meta robots: JA
  2. Config 2: JavaScript-Rendering Crawl

    • JavaScript enabled: JA
    • Render option: Headless browser
    • Rendering timeout: 10s
    • Das zeigt dir, ob deine React-App auch wirklich rendert
  3. Config 3: Custom Extraction für Daten

    • Meta Description Länge extrahieren
    • H1-Tags auslesen
    • Canonical Tags prüfen
    • Structured Data (JSON-LD) extrahieren

Beim letzten Projekt (E-Commerce, 18.000 URLs) haben wir damit herausgefunden: 12% der URLs hatten doppelte Meta Descriptions — copy-paste Fehler aus einem Template. Sistrix hatte das nicht gemessen. Google Search Console auch nicht. Screaming Frog fand es in 2 Minuten.

Praxisbeispiel: Bei einem TYPO3-Audit einer Unternehmenswebsite mit über 800 Seiten fanden wir einen Template-Fehler, der den Platzhalter {child.title} als Klartext 40-mal pro Seite in der Navigation ausgab. Inline-SVGs blaehten das HTML auf 366 KB auf — 49 % des HTML-Codes bestand aus SVG-Grafiken. Das Bildoptimierungspotenzial lag bei über 2.222 KB, wobei allein das Hero-Image 1.431 KB als unkomprimiertes JPEG belegte. Solche Fehler findet kein automatisiertes SEO-Tool — dafür braucht es einen manuellen Crawl mit gezielter Custom Extraction.

Crawl-Fehler und Indexierungsstatus

Nach der Crawl schauen wir auf:

  • 4xx und 5xx Fehler: Sollten unter 0,5% liegen. Bei 18.000 URLs = max. 90 fehlerhafte URLs.
  • Redirect-Ketten: Mehr als 2 Hops sind ineffizient. Das kostet Crawl-Budget.
  • Orphaned Pages: URLs ohne interne Links. Ja, manche existieren trotzdem im Index — aber warum?
  • Soft 404s: Seiten, die HTTP 200 zurückgeben, aber eigentlich nicht existieren.

Die Google Search Console API gibt uns dazu noch die Möglichkeit, 25.000 Zeilen pro Abfrage mit Dimensionen wie Date, Query und Device abzurufen. Das zeigt: Welche URLs klicken die Nutzer an? Welche Queries ranken wir? Click-Through-Rate ist oft wichtiger als Rankings — 10 Rankings ohne CTR bringen nichts.

Core Web Vitals und Performance

Hier ist Lighthouse dein bester Freund. Aber nicht die Chrome-Extension — die ist zu variabel. Wir nutzen:

  1. PageSpeed Insights API (batch processing)
  2. Lighthouse CI (für Kontinuitaet)
  3. Ahrefs Site Audit als Backup-Datenquelle

Konkrete Schwellen, die wir prüfen:

  • LCP (Largest Contentful Paint): < 2,5s = gut. 2,5-4s = needs work. > 4s = kritisch
  • FID (First Input Delay): < 100ms = gut. (Wird durch INP ersetzt)
  • CLS (Cumulative Layout Shift): < 0,1 = gut. > 0,25 = schlecht

Ein Fashion-E-Commerce hatte LCP von 5,2 Sekunden. Der Grund? Hero-Image wurde unkomprimiert hochgeladen. 4,8 MB statt 280 KB. Eine Woche Arbeit, und LCP fiel auf 1,8s. Konversion stieg um 8%. Das ist kein Zufall.

Performance-Metriken zu ignorieren ist wie eine Immobilie zu kaufen ohne die Wasser- und Stromleitungen zu prüfen.

Mobile-Freundlichkeit und Core Algorithm

Seit 2021 ist Mobile-First-Index Standard. Das heisst aber nicht, dass deine Desktop-Version ignoriert wird. Wir prüfen:

  • Mobile Viewport: <meta name="viewport" content="width=device-width, initial-scale=1">
  • Font-Größe: Min. 16px auf Mobile (sonst Zoom-Zwang)
  • Click-Targets: Min. 48x48px
  • Desktop vs. Mobile: Unterscheiden sich die Inhalte? (Das ist boese — Google hasst das)

Phase 2: Der OnPage SEO Check

Hier geht es um Inhalte. Struktur. Strategie.

Keyword-Mapping und Abdeckung

Zu viele Websites konkurrieren mit sich selbst. URL A rankt für Keyword X, URL B auch. Das ist verspielte Kraft.

Mit Screaming Frog + Custom Extraction + Excel/Google Sheets machen wir das so:

  1. Extraktion der H1, H2, Meta Title, Meta Description, URL
  2. Manuelle Keyword-Zuordnung (semi-automatisiert mit NLP, aber ehrlich: ein gutes Auge ist besser)
  3. Abdeckungsanalyse: Welche Keyword-Cluster sind unterrepraesentiert?

Bei einem B2B-SaaS (145 Seiten) fanden wir: 23 URLs targeten das Keyword “Integration”, aber nur 3 URLs waren strukturell dafür optimiert. Der Traffic zu diesem Keyword war 40% unter Benchmark. Wir haben 8 URLs konsolidiert, 15 optimiert. Nach 8 Wochen: +156% Traffic für diesen Cluster.

Content-Qualität und Struktur

Ja, du kannst auch KI-Tools für die Analyse nutzen. Aber echte Qualität erkennst du nur selbst. Wir checken:

  • Länge: 300-600 Wörter = Snippet-Chance. 1000+ = Deep-Dive Potential. Aber: 1000 Wörter Muell ist schlimmer als 300 gute Wörter.
  • Struktur: H1, H2, H3 Hierarchie? Oder Chaos?
  • Einzigartigkeit: Kopiert jemand deine Inhalte? (Copyscape kann das checken, aber auch Google selbst merkt es)
  • Veraltete Daten: Ranking für “Best Practices 2024”? Mit Daten von 2019? Fail.

Interne Verlinkung: Die unterschaetzte Superpower

Das ist nicht sexy. Aber es funktioniert. Ahrefs hat Studien gemacht: Seiten mit mehr internen Links ranken tendenziell besser. Das ist kein Zufall — es ist Crawl-Budget-Effizienz und Topic-Authority.

Screaming Frog zeigt dir alle Links. Aber was ist sinnvoll?

Ranking fuer "SEO Audit"?
-> Verlinke intern auf alle Seiten im "SEO"-Cluster
-> Mit Anchor-Text: "SEO Check", "Technical SEO", "Content Audit"
-> Nicht: "Klick hier"

Ein E-Learning Portal hatte 340 interne Links auf die Homepage. 340! Die haetten besser verteilt sein können auf 40 wichtige Seiten. Nach Redistribution: +23% organischer Traffic auf Key-Pages.

Title und Meta Description Analyse

Google nutzt Title in 100% der SERPs. Meta Description in vielleicht 70% (der Rest wird auto-generiert). Aber:

  • Title unter 60 Zeichen? Wird in Desktop abgeschnitten.
  • Title über 75 Zeichen? In Mobile definitiv gekuerzt.
  • Meta Description unter 150 Zeichen? Wirkt zu kurz.
  • Meta Description über 160 Zeichen? Oft gekuerzt.

Screaming Frog hat ein Feature “Crawl Analysis” > “Titles” — alle Längen werden dir angezeigt. Ein Projekt mit 560 URLs: 34% zu lang, 12% zu kurz, 18% doppelt, 3% leer. Nach Optimization: +18% CTR in der GSC (in 6 Wochen).

Du kannst deine Website perfekt optimieren. Aber ohne Links? Schwierig. Google selbst hat das ganz am Anfang geschrieben: PageRank basiert auf Links.

Das ist das Herzstueck. Ahrefs hat 4 Billionen Backlinks im Index. Das ist eine Datenbank, die du nutzen solltest.

Fragen, die wir im Check stellen:

  1. Wie viele Backlinks hast du? Absolut? Aber wichtiger: Domain-Diversitaet?
  2. Welche Domains verlinken dich? Sind das Konkurrenten? Verwandte Seiten? Random Spam?
  3. Follow vs. NoFollow Ratio: Zu viel NoFollow bedeutet… schwach verhandelt.
  4. Anchor Text Distribution: Zu viel “Keyword-Anchor” wirkt manipulativ. Natürlich sollte es so aussehen: 60% branded, 30% generic, 10% keyword-specific.
  5. Backlink-Alter: Junge Links sind besser als alte (zeigt aktuelles Interesse). Aber alte Links mit stabiler Authority sind Goldnuggets.

Bei einem lokalen Service (Zahnarzt) hatten wir 18 Backlinks von Dentist-Verzeichnissen. Sistrix-Wert: jeder Link 0.2-0.5 Punkte auf der Sistrix-Skala. Aber: Der beste Link war von der Universitaet (1.8 Punkte Authority). Dieser eine Link war mehr wert als 6 Verzeichnis-Links zusammen.

Rote Flags für toxische Links:

  • Private Blog Networks (PBNs): Alle mit derselben WHOIS-Info, Nameserver, IP-Range
  • Exact-Match Domains (EMDs): “besteseo-tools.de” mit 200 Backlinks? Verdaechtig.
  • Massiver Linkaufbau über Nacht: Link-Kauf. Google sieht das. Sistrix-Tools zeigen Spitzen im Backlink-Wachstum.
  • Irrelevante Kategorien: Link von Casino-Site zu deinem B2B-Consulting? Verdaechtig.
  • Links aus Kommentaren/Forenspam: Noch aktuell? Nein. Aber alt genug, dass Google sie indexiert hat.

Wir nutzen Ahrefs mit Filtern: Domain Rating < 10 und Referring Domain Spam Score > 5. Das zeigt dir Muell. Eine Fintech-Site hatte 180 solcher Links. Google Update im Maerz (2026) — Rankings fielen. Wir disavowen diese Links in Batches. 3 Wochen später: Rankings stabilisierten sich.

Das ist der positive Part. Welche Websites linken zu deinen Konkurrenten, aber nicht zu dir?

In Ahrefs: Site Explorer, Konkurrenten-Domain, “Backlinks” Tab, Filter auf “Not linking to my domain”, sortiert nach Domain Rating (absteigend).

Ein Finanzplattform-Projekt: Konkurrent “FinanceGeek.de” hatte 42 Links von Finance-Foren, wir 0. Wir haben mit 6 dieser Foren Kontakt aufgenommen, 4 Links geklappt (ehrlich, nicht manipulativ — unsere Inhalte waren einfach besser). Das brachte +85 Organic-Traffic pro Monat.

Phase 4: Die Priorisierung — Was zuerst?

Jetzt hast du 200+ Findings. Alle gleichzeitig fixen? Unmöglich.

Wir nutzen ein Scoring-System:

Prioritaet = (Impact x Einfachheit) / Aufwand

Impact: 1-10 Punkte
  - Technisches Blocking (z.B. robots.txt sperrt alles): 10
  - Core Web Vitals kritisch: 8-9
  - OnPage Keyword-Fehler: 6-7
  - Broken Links: 4-5
  - Minor Meta-Issues: 2-3

Einfachheit: 1-10 Punkte
  - Kann in 30 Min geloest werden: 10
  - Braucht 4-8 Stunden: 6-7
  - Braucht 2-3 Tage: 3-4
  - Braucht Redesign: 1

Aufwand: 1-10 Punkte
  - Kosten: Low-cost = 9, Medium = 5, High = 2

Deine Top 3 Findings sollten immer sein:

  1. Schnelle technische Fixes (High Impact, Low Effort)
  2. OnPage-Optimierungen auf Top-Ranking-Pages
  3. Neue Backlink-Opportunities

Zusätzliche Tools im Workflow

Neben Screaming Frog, Ahrefs und Google Search Console nutzen wir noch:

Sistrix:

  • Das Keyword-Modul zeigt Rankings und Visibility über Zeit
  • Das Domain-Modul kombiniert alles (Links, Keywords, Crawl-Daten)
  • Der “Site Audit” arbeitet parallel zu Screaming Frog als Validierung

Lighthouse und PageSpeed Insights:

  • API-basiert für Automation möglich
  • Zeigt Real-World Data (CrUX)
  • Lab Data sollte validiert werden mit echten Nutzermetriken

Google Search Console:

  • Index Coverage Report: Was ist gekuerzt? Was ist ausgeschlossen?
  • Performance Report: CTR, Impressions, Average Position
  • Crawl Stats: Wie aggressiv crawlt Googlebot?

Surfer SEO und Clearscope:

  • Content-Score basierend auf SERP-Analyse der Top-10
  • Zeigt semantisch verwandte Begriffe, die in deinem Text fehlen
  • Hilfreich für die OnPage-Optimierung einzelner Seiten nach dem Audit

Microsoft Clarity:

  • Kostenloses Heatmap- und Session-Recording-Tool
  • Zeigt, wo Nutzer klicken, scrollen und abspringen
  • Ergänzt die quantitativen SEO-Daten mit qualitativem Nutzerverhalten
  • Besonders wertvoll, wenn der SEO Check ergibt, dass Rankings vorhanden sind, aber die Conversion oder die Verweildauer schlecht ist

Screaming Frog mit API-Anbindung:

  • Verbinde Screaming Frog mit der Google Search Console API und der PageSpeed Insights API
  • Damit siehst du in einem einzigen Crawl pro URL: Statuscode, Meta-Daten, Wortanzahl, Core Web Vitals, organische Klicks und Impressionen
  • Das spart Stunden manueller Datenkonsolidierung und liefert die Grundlage für die Priorisierung

Ein Audit-Report muss actionable sein

Viele Reports sind PDF-Sammelsurium. Wir schreiben Audits so auf, dass sie umgesetzt werden:

  1. Executive Summary: Maximal 1 Seite. Was sind die 3-5 kritischen Punkte?
  2. Prioritized Findings: Mit Scoring. Die Top 20 zuerst. Rest als Backlog.
  3. Implementation Details: Wer macht es? Wie lange? Was kostet es?
  4. Expected Impact: Prozentsaetze, Traffic-Prognosen, Timeline.
  5. Monitoring Setup: Wie messen wir den Erfolg?

Ein typischer Audit:

  • 2-3 Tage Durchführung
  • 1 Woche Reporting
  • 8-12 Wochen Implementation
  • 3-6 Monate bis signifikante Verbesserungen sichtbar sind

SEO-Check automatisieren: Workflows für wiederkehrende Prüfungen

Ein einmaliger SEO Check ist gut. Aber die besten Ergebnisse entstehen, wenn du zentrale Prüfungen automatisierst und regelmäßig ausführst. Hier sind die Automations-Setups, die wir intern nutzen:

Woechentlicher Crawl mit Screaming Frog

Screaming Frog laesst sich über die Kommandozeile automatisieren. Ein woechentlicher Crawl mit denselben Configs erkennt neue Probleme früh:

  • Neue 404-Fehler durch gelöschte oder verschobene Seiten,
  • neue Redirect-Ketten durch CMS-Updates,
  • doppelte Meta Descriptions durch neue Template-Seiten,
  • fehlende Structured Data auf kuerzlich veröffentlichten Seiten.

Exportiere die Ergebnisse als CSV und vergleiche sie automatisiert mit der Vorwoche. Änderungen über einem definierten Schwellenwert lösen ein Alert aus.

Monatlicher GSC-Report

Die Google Search Console API liefert dir programmatisch Zugriff auf:

  • Click-Through-Rates nach Keyword und Seite,
  • neue Indexierungsfehler,
  • Performance-Veränderungen nach Device-Typ,
  • Vergleich zum Vormonat und Vorjahr.

Mit Google Sheets und der GSC API (oder Tools wie Supermetrics) kannst du ein Dashboard bauen, das die wichtigsten Metriken automatisch aktualisiert.

Kontinuierliches Core-Web-Vitals-Monitoring

Lighthouse CI laesst sich in deine CI/CD-Pipeline integrieren. Jeder Deploy wird automatisch auf Performance geprüft. Wenn Core Web Vitals unter definierte Schwellen fallen, wird der Deploy markiert.

Alternativ: Die CrUX API (Chrome User Experience Report) liefert dir echte Nutzerdaten statt Labordaten. Ein monatlicher Abzug zeigt dir, wie sich die Performance für echte Besucher entwickelt.

Erweiterter Tool-Vergleich: Wann welches Tool?

ToolStärkeSchwächeKosten
Screaming FrogTechnische Tiefe, Custom Extraction, FlexibilitätKein Live-Monitoring, Desktop-Anwendungab 209 EUR/Jahr
AhrefsBacklinks, Keyword-Recherche, Content-GapTechnisches Audit ist solide, aber nicht so tief wie SFab 99 USD/Monat
SistrixDACH-fokussiert, Sichtbarkeitsindex, WettbewerbsanalyseTechnisches Audit weniger detailliertab 99 EUR/Monat
Google Search ConsoleOffiziell, kostenlos, echte Google-DatenLimitierte historische Daten, kein CrawlKostenlos
Surfer SEOOnPage-Optimierung basierend auf SERP-AnalyseKein technisches Audit, kein Backlink-Checkab 89 USD/Monat
Microsoft ClarityHeatmaps, Session Recordings, NutzerverhaltenKein SEO-spezifisches ToolKostenlos
Lighthouse CICI/CD-Integration, automatisierte Performance-ChecksLabordaten, nicht echtes NutzerverhaltenKostenlos

Die meisten Teams brauchen drei Tools: Screaming Frog für technische Tiefe, ein Sichtbarkeits-Tool (Sistrix oder Ahrefs) für Strategie und die Google Search Console für offizielle Daten. Alles darueber hinaus ist Ergänzung.

Checkliste: Die 15 Quick Wins nach jedem SEO Check

Diese Punkte bringen fast immer schnelle Ergebnisse und sind in wenigen Stunden umsetzbar:

  1. Redirect-Ketten auf maximal einen Hop reduzieren
  2. Fehlende oder doppelte Title Tags korrigieren
  3. Meta Descriptions auf optimale Länge bringen (120-155 Zeichen)
  4. Bilder ohne Alt-Text ergänzen
  5. Backlinks von 404-Seiten auf passende Live-Seiten umleiten
  6. Interne Links auf kaputte URLs fixen
  7. Canonicals auf Seiten mit Duplicate-Content-Risiko prüfen
  8. hreflang-Tags validieren (falls mehrsprachig)
  9. XML-Sitemap aktualisieren und nicht-indexierte URLs entfernen
  10. Core Web Vitals der Top-10-Seiten prüfen und größte Bremsen fixen
  11. Thin Content identifizieren und entweder ausbauen oder noindexen
  12. Keyword-Kannibalisierung auflösen (mehrere Seiten für dasselbe Keyword)
  13. Orphaned Pages mit internen Links versorgen
  14. FAQ-Bereiche mit Schema Markup auszeichnen
  15. Kontaktseite und Impressum auf korrekte Strukturierung prüfen

Fazit: SEO Check ist nicht optional

Manche Kunden sparen sich das Audit. “Wir optimieren einfach direkt!” Das ist wie ein Medikament nehmen ohne Diagnose. Vielleicht hilft es, vielleicht machst du es schlimmer.

Ein guter SEO Check ist die Grundlage. Er zeigt dir, wo du wirklich stehst. Nicht wo du denkst, dass du stehst.

Und ja, es kostet Geld. Aber ein Audit, das dir 3 einfache Optimierungen zeigt, die +20% Traffic bringen? Das amortisiert sich in 2 Monaten. Wir haben Projekte gesehen, bei denen sich ein Audit in 3 Wochen bezahlt hat.

Der Trick ist: Gutes Werkzeug + systematisches Denken + echte Daten. Nicht mehr, nicht weniger. Wenn du einen professionellen SEO Check für dein Projekt brauchst, sprich direkt mit uns.

Profilbild von Schahab Hosseiny
Think11 Beratung
Rückmeldung werktags in der Regel sehr schnell