Marketing-Glossar

Page Speed (Ladegeschwindigkeit)

Zuletzt aktualisiert: 20.03.2026 · Redaktion Think11

Page Speed beschreibt die Geschwindigkeit, mit der eine Webseite ihre Inhalte im Browser des Nutzers vollständig laedt und darstellt. Im deutschen Sprachraum wird häufig der Begriff Ladegeschwindigkeit verwendet, gemeint ist dasselbe: Wie lange muss ein Besucher warten, bis er mit deiner Seite interagieren kann? Diese Frage hat direkte Auswirkungen auf dein SEO-Ranking, deine Conversion-Rate und letztlich auf deinen Umsatz. Google bestaetigt seit Jahren, dass die Ladegeschwindigkeit ein Ranking-Faktor ist. Gleichzeitig zeigen interne Studien grosser Plattformen immer wieder dasselbe Bild: Jede zusätzliche Sekunde Ladezeit kostet messbar Nutzer und Umsatz.

Trotzdem behandeln viele Unternehmen Page Speed als nachrangiges Thema. Die Website funktioniert ja, sieht gut aus, der Content stimmt. Warum also Zeit und Geld in Millisekunden investieren? Weil diese Millisekunden sich summieren. Nicht nur in der Nutzererfahrung, sondern auch in harten Geschäftszahlen. Wir sehen das bei unseren Kundenprojekten regelmäßig: Eine Verbesserung der Ladezeit um eineinhalb Sekunden führt zu spürbaren Veränderungen bei Absprungrate, Verweildauer und Conversions.

Was genau misst Page Speed?

Page Speed ist kein einzelner Messwert, sondern ein Sammelbegriff für verschiedene Metriken, die unterschiedliche Aspekte des Ladevorgangs abdecken. Diese Unterscheidung ist wichtig, weil eine Seite in einer Metrik hervorragend abschneiden und in einer anderen durchfallen kann.

Time to First Byte (TTFB)

TTFB misst die Zeitspanne zwischen der HTTP-Anfrage des Browsers und dem ersten empfangenen Byte der Server-Antwort. Diese Metrik gibt Aufschluss über die Server-Performance und die Netzwerklatenz. Ein langsamer TTFB deutet auf Probleme mit dem Hosting, der Datenbank oder der serverseitigen Logik hin.

Gute Werte liegen unter 200 Millisekunden. Werte über 600 Millisekunden signalisieren deutlichen Optimierungsbedarf. Dabei ist zu beachten, dass TTFB geografisch variiert. Ein Server in Frankfurt liefert an Nutzer in Deutschland schnellere TTFB-Werte als an Nutzer in Suedostasien.

First Contentful Paint (FCP)

FCP markiert den Zeitpunkt, an dem der Browser das erste sichtbare Element rendert. Das kann ein Text, ein Bild oder ein farbiger Hintergrund sein. FCP zeigt dem Nutzer: Die Seite reagiert, es passiert etwas. Psychologisch ist das entscheidend, denn ein weisser Bildschirm fuehlt sich deutlich länger an als ein Bildschirm, auf dem bereits erste Inhalte erscheinen.

Ein guter FCP-Wert liegt unter 1,8 Sekunden. Alles über 3 Sekunden ist problematisch.

Largest Contentful Paint (LCP)

LCP ist eine der drei Core Web Vitals und misst, wann das größte sichtbare Inhaltselement im Viewport vollständig geladen ist. Typischerweise handelt es sich dabei um ein Hero-Bild, ein Video-Poster oder einen grossen Textblock. LCP ist der beste Indikator dafür, wann die Seite aus Nutzerperspektive als geladen wahrgenommen wird.

Google setzt den Schwellenwert bei 2,5 Sekunden. Seiten mit einem LCP über 4 Sekunden gelten als schlecht. In unserer Praxis liegt der Median vieler unoptimierter Seiten zwischen 3 und 5 Sekunden auf Mobilgeraeten, also deutlich im kritischen Bereich.

Time to Interactive (TTI)

TTI gibt an, wann eine Seite vollständig interaktiv ist. Das bedeutet: Alle sichtbaren Elemente sind geladen, Event Handler sind registriert, und die Seite reagiert zuverlässig auf Nutzereingaben innerhalb von 50 Millisekunden. Eine Seite kann visuell fertig aussehen, aber durch laufende JavaScript-Prozesse noch nicht bedienbar sein. Diese Diskrepanz frustriert Nutzer erheblich.

Cumulative Layout Shift (CLS)

Streng genommen misst CLS keine Geschwindigkeit, sondern die visuelle Stabilität während des Ladevorgangs. Trotzdem gehoert CLS zur Page-Speed-Diskussion, weil Layout-Verschiebungen fast immer eine Folge suboptimaler Ladeprozesse sind. Bilder ohne definierte Abmessungen, nachladende Webfonts oder spät eingefuegte Werbebanner verursachen Shifts, die den Nutzer irritieren.

Warum ist Page Speed ein Ranking-Faktor?

Google hat die Ladegeschwindigkeit bereits 2010 als Ranking-Signal für die Desktop-Suche eingeführt. 2018 folgte das Speed Update für die mobile Suche. Seit 2021 fliessen die Core Web Vitals als Teil der Page Experience Signals in den Algorithmus ein. Die Botschaft ist klar: Google will Nutzern nicht nur relevante, sondern auch schnell nutzbare Ergebnisse liefern.

Die Gewichtung als Ranking-Faktor ist differenziert zu betrachten. Content-Relevanz und Backlinks bleiben die dominanten Signale. Page Speed wirkt eher als Tie-Breaker: Bei inhaltlich gleichwertigen Seiten bevorzugt Google die schnellere. In stark umkaempften Nischen kann genau dieser Tie-Breaker den Unterschied zwischen Position fünf und Position zehn ausmachen.

Dazu kommt ein indirekter Effekt, der oft unterschaetzt wird. Langsame Seiten haben höhere Absprungraten und kuerzere Verweildauern. Diese Nutzersignale wiederum beeinflussen das Ranking negativ. Eine langsame Seite verliert also doppelt: direkt über den Speed-Faktor und indirekt über verschlechterte Engagement-Metriken.

Mobile Speed ist entscheidend

Seit Google auf Mobile-First-Indexing umgestellt hat, wird die mobile Version deiner Website als primaere Version für das Ranking herangezogen. Das bedeutet: Die Ladegeschwindigkeit auf Mobilgeraeten zählt mehr als die auf dem Desktop.

Mobilgeraete bringen zusätzliche Herausforderungen mit. Schwächere Prozessoren, weniger Arbeitsspeicher, instabile Netzwerkverbindungen, höhere Latenz bei Mobilfunknetzen. Eine Seite, die am Büro-Desktop in einer Sekunde laedt, kann auf einem drei Jahre alten Smartphone über Mobilfunk fünf Sekunden brauchen. Optimierung muss immer vom mobilen Worst Case ausgehen, nicht vom Desktopideal.

Page Speed und Conversion-Rate

Der Zusammenhang zwischen Ladegeschwindigkeit und Conversion-Rate ist wissenschaftlich gut belegt und empirisch hundertfach nachgewiesen. Portento, Akamai und Google selbst haben umfangreiche Studien veröffentlicht, die alle in dieselbe Richtung zeigen: Schnellere Seiten konvertieren besser.

Die konkreten Zahlen variieren je nach Branche und Kontext. Aber die Richtung ist eindeutig: Schon eine Verbesserung von einer Sekunde kann die Conversion-Rate um mehrere Prozentpunkte steigern. Bei einem E-Commerce-Shop mit einer Million Euro Monatsumsatz sind das schnell fünf- oder sechsstellige Betraege im Jahr.

Dabei geht es nicht nur um die finale Conversion, also den Kauf oder die Anfrage. Auch Micro-Conversions wie Newsletter-Anmeldungen, PDF-Downloads oder Produktseiten-Aufrufe korrelieren mit der Ladegeschwindigkeit. Jeder Schritt im Funnel, bei dem der Nutzer warten muss, ist ein potenzieller Absprungpunkt.

Wie misst du Page Speed richtig?

Google PageSpeed Insights

PageSpeed Insights ist der gaengigste Einstieg. Das Tool zeigt sowohl Lab Data aus Lighthouse als auch Field Data aus dem Chrome User Experience Report. Wichtig: Die beiden Datenquellen können erheblich voneinander abweichen. Lab Data wird unter standardisierten Bedingungen gemessen, Field Data spiegelt die reale Nutzererfahrung wider. Für das Ranking zählt ausschliesslich die Field Data.

Google Search Console

Die Search Console bietet unter dem Reiter Core Web Vitals einen aggregierten Bericht über alle URLs deiner Domain. Hier siehst du auf einen Blick, welche URL-Gruppen gute, verbesserungsbeduertige oder schlechte Werte aufweisen. Die Search Console ist das beste Tool für die strategische Übersicht.

Lighthouse und Chrome DevTools

Lighthouse liefert detaillierte Diagnosen mit konkreten Handlungsempfehlungen. Das Tool identifiziert render-blockierende Ressourcen, unoptimierte Bilder, ungenutztes JavaScript und dutzende weitere Performance-Probleme. Die Auditresultate sind nach geschaetztem Einsparpotenzial sortiert, sodass du die Maßnahmen mit dem größten Hebel priorisieren kannst.

WebPageTest

WebPageTest ist ein fortgeschrittenes Tool, das detaillierte Wasserfall-Diagramme des Ladevorgangs erstellt. Du kannst verschiedene Standorte, Browser und Verbindungsgeschwindigkeiten simulieren. Besonders nuetzlich ist der visuelle Vergleich: Das Tool erzeugt Filmstreifen des Rendervorgangs, die zeigen, was der Nutzer in welcher Millisekunde sieht.

Real User Monitoring

Lab-Tools messen unter kontrollierten Bedingungen. Für ein vollständiges Bild brauchst du Real User Monitoring, also Messdaten von echten Nutzern auf echten Geraeten unter echten Netzwerkbedingungen. Google Analytics 4 liefert hier erste Einblicke. Dedizierte RUM-Lösungen wie Speedcurve oder mPulse bieten deutlich mehr Tiefe.

Die wichtigsten Hebel zur Optimierung der Ladegeschwindigkeit

Server und Hosting

Alles beginnt beim Server. Ein langsamer Server kann durch Frontend-Optimierungen nicht kompensiert werden. Die TTFB sollte unter 200 Millisekunden liegen. Wenn sie dauerhaft darueber liegt, prüfe die Hosting-Infrastruktur. Shared Hosting ist für geschäftskritische Websites selten ausreichend. Dedizierte Server oder Managed Cloud-Lösungen bieten vorhersagbare Performance.

Ein Content Delivery Network verteilt statische Inhalte auf Server weltweit und liefert sie vom geografisch nächsten Standort aus. Für Websites mit überregionalem Publikum ist ein CDN nahezu unverzichtbar. Auch für lokale Unternehmen kann ein CDN sinnvoll sein, weil die Edge-Server in der Regel schneller antworten als ein einzelner Origin-Server.

Server-seitiges Caching reduziert die Notwendigkeit, jede Anfrage vollständig neu zu berechnen. Ob Varnish, Redis oder ein anwendungsspezifisches Caching: Die Grundidee ist immer dieselbe. Häufig angefragte Inhalte werden zwischengespeichert und direkt ausgeliefert, ohne die Datenbank oder die Anwendungslogik zu bemuehen.

Bildoptimierung

Bilder machen auf den meisten Websites den größten Anteil am Seitengewicht aus. Oft 50 bis 70 Prozent des gesamten Transfervolumens. Hier liegt entsprechend der größte Optimierungshebel.

Moderne Bildformate wie WebP und AVIF bieten bei gleicher visueller Qualität deutlich geringere Dateigrößen als JPEG oder PNG. WebP spart im Schnitt 25 bis 35 Prozent gegenüber JPEG, AVIF nochmals 20 Prozent gegenüber WebP. Beide Formate werden von allen modernen Browsern unterstuetzt.

Responsive Images über das srcset-Attribut stellen sicher, dass jedes Geraet nur die Bildgröße laedt, die es tatsaechlich benötigt. Ein Smartphone braucht kein 2400 Pixel breites Bild, wenn es nur 375 Pixel Viewport-Breite hat. Ohne srcset laedt jedes Geraet die volle Auflösung und verschwendet Bandbreite.

Lazy Loading verzoegert das Laden von Bildern, die sich ausserhalb des sichtbaren Bereichs befinden. Der Browser laedt diese Bilder erst, wenn der Nutzer in ihre Nähe scrollt. Für Bilder unterhalb des Folds ist Lazy Loading Standard. Für das LCP-Bild, also das größte sichtbare Element beim initialen Laden, solltest du Lazy Loading hingegen vermeiden und das Bild per Preload priorisieren.

JavaScript und CSS optimieren

Render-blockierende Ressourcen sind einer der häufigsten Gründe für langsame Seiten. Der Browser muss CSS- und JavaScript-Dateien herunterladen und parsen, bevor er die Seite rendern kann. Jede zusätzliche Datei verzoegert den Rendervorgang.

Critical CSS, also die CSS-Regeln, die für den sichtbaren Bereich beim ersten Laden benötigt werden, sollte inline im HTML stehen. Alle weiteren Stylesheets werden asynchron nachgeladen. Diese Technik reduziert die Renderblockierung erheblich.

Bei JavaScript gilt: Was nicht für den initialen Seitenaufbau benötigt wird, sollte mit dem defer- oder async-Attribut geladen werden. Code Splitting, also das Aufteilen des JavaScript-Bundles in kleinere Pakete, stellt sicher, dass nur der für die aktuelle Seite relevante Code geladen wird. Ungenutzes JavaScript, das oft 30 bis 50 Prozent des gesamten Bundles ausmacht, sollte rigoros entfernt werden.

Tree Shaking in modernen Build-Tools wie Webpack oder Vite eliminiert toten Code automatisch. In der Praxis bleiben aber oft manuelle Eingriffe nötig, insbesondere bei Third-Party-Libraries, die weitreichende Abhängigkeiten mitbringen.

Third-Party-Scripts reduzieren

Analytics, Tag Manager, Consent-Management, Chat-Widgets, Social-Media-Plugins, Retargeting-Pixel, Heatmap-Tools: Die Liste der Third-Party-Scripts auf einer typischen Website ist lang. Jedes einzelne Script verursacht zusätzliche HTTP-Anfragen, verbraucht Bandbreite und belegt den Main Thread. In der Summe können Third-Party-Scripts die Ladezeit um mehrere Sekunden verlängern.

Über den Google Tag Manager lassen sich viele dieser Scripts zentral verwalten und gezielt erst nach bestimmten Triggern laden. Trotzdem ist die wichtigste Maßnahme eine regelmäßige Inventur: Welche Scripts sind noch aktiv? Welche haben einen messbaren Geschäftswert? Alles andere fliegt raus.

Web Fonts optimieren

Custom Fonts sind ein oft unterschaetzter Performance-Faktor. Jeder Font-Schnitt, jede Gewichtung ist eine zusätzliche Datei, die geladen werden muss. Eine Font-Familie mit fünf Schnitten in Regular, Medium und Bold kann schnell 300 bis 500 Kilobyte umfassen.

Die Lösung: Nur die tatsaechlich verwendeten Schnitte laden. Fonts im WOFF2-Format ausliefern, das die beste Komprimierung bietet. Mit font-display swap sicherstellen, dass Text sofort in einer Fallback-Schrift angezeigt wird, während der Custom Font laedt. Und wo möglich System-Fonts verwenden, die keine zusätzlichen Downloads erfordern.

Browser-Caching konfigurieren

Korrektes Browser-Caching sorgt dafür, dass wiederkehrende Besucher nicht alle Ressourcen erneut herunterladen müssen. Über Cache-Control-Header definierst du, wie lange Browser statische Ressourcen wie Bilder, CSS und JavaScript lokal speichern sollen. Statische Assets, die sich selten ändern, sollten einen langen Cache-Zeitraum von einem Jahr erhalten, kombiniert mit einem versionierten Dateinamen für Cache-Busting bei Änderungen.

Häufige Fehler bei der Page-Speed-Optimierung

Ausschliesslich auf den Lighthouse-Score optimieren. Der Score ist ein nuetzlicher Indikator, aber kein Ranking-Signal. Google verwendet die CrUX-Felddaten, nicht den Lighthouse-Score. Eine Seite mit Lighthouse 95 und schlechten Felddaten rankt schlechter als eine Seite mit Lighthouse 75 und guten Felddaten.

Nur die Startseite optimieren. Nutzer landen über die organische Suche auf Landing Pages, Blogartikel und Produktseiten, nicht nur auf der Startseite. Jede Seite, die organischen Traffic erhaelt, muss performant sein. Die Search Console zeigt, welche Seitentypen Probleme haben.

Desktop-Werte feiern, Mobile ignorieren. Der Desktop laeuft fast immer schneller. Aber Google wertet die mobilen Werte. Teste immer mobil zuerst, idealerweise mit Throttling auf 3G oder langsames 4G.

Optimierung als einmaliges Projekt betrachten. Neue Features, Content-Updates, zusätzliche Tracking-Scripts und Plugin-Updates können die Performance jederzeit verschlechtern. Page Speed erfordert kontinuierliches Monitoring und regelmäßige Audits. Wer nur einmal optimiert, ist nach drei Monaten wieder am Ausgangspunkt.

Zu viele Optimierungen gleichzeitig ausführen. Wenn du zehn Maßnahmen parallel umsetzt und die Werte sich verbessern, weisst du nicht, welche Maßnahme den größten Beitrag geleistet hat. Strukturiertes Vorgehen mit schrittweiser Umsetzung und Messung nach jeder Änderung liefert belastbare Erkenntnisse.

Page Speed im Kontext von technischem SEO

Page Speed ist ein zentraler Baustein des technischen SEO. Eine technisch saubere Website umfasst weit mehr als nur schnelle Ladezeiten. Crawlbarkeit, Indexierbarkeit, strukturierte Daten, Canonical Tags und die interne Verlinkungsstruktur gehoeren ebenso dazu. Aber Page Speed ist der Bereich, in dem technische Fehler die unmittelbarsten Auswirkungen auf Nutzererfahrung und Rankings haben.

Die User Experience leidet sichtbar, wenn Seiten langsam laden, Layouts springen oder Interaktionen verzoegert sind. Und Google wird immer besser darin, genau diese Nutzererfahrung zu messen und in Rankings zu übersetzen. Wer Page Speed als rein technisches Detail abtut, verkennt die Verbindung zwischen Performance, Nutzerzufriedenheit und Geschäftserfolg.

Praxisbeispiel: In einem aktuellen Audit einer TYPO3-basierten Energieplattform mit über 800 Seiten fanden wir ein JavaScript-Bundle von 3,1 MB (davon 1,1 MB ungenutzt), ein HTML-Dokument von 366 KB (49 Prozent davon inline SVGs) und 4 eingebettete Iframes mit jeweils rund 714 KB zusätzlichem JavaScript. Der CLS-Feldwert lag bei 0,2, während der Lab-Wert nur 0,029 betrug. Das zeigt exemplarisch, wie Felddaten und Lab-Daten auseinanderfallen können — und warum Page-Speed-Optimierung immer auf Basis realer Nutzerdaten erfolgen muss.

Page-Speed-Optimierung mit Think11

Think11 aus Osnabrück optimiert als datengetriebene Agentur die Ladegeschwindigkeit von Websites systematisch und messbar. Unser SEO-Team analysiert die aktuellen Core Web Vitals und Felddaten, identifiziert die größten Performance-Bremsen und priorisiert Maßnahmen nach ihrem Impact auf Rankings und Conversions.

Gemeinsam mit unserem Webentwicklungs-Team setzen wir die technischen Optimierungen um: Server-Konfiguration, Bildkomprimierung, JavaScript-Refactoring, Caching-Strategien und Third-Party-Script-Management. Nach der Umsetzung messen wir die Ergebnisse in den Felddaten und passen die Strategie kontinuierlich an.

In über 3.000 Projekten haben wir die technische Performance von Websites verschiedenster Branchen verbessert. Die Ergebnisse zeigen sich in kuerzeren Ladezeiten, besseren Core Web Vitals, höheren Rankings und steigenden Conversion-Raten.

Profilbild von Schahab Hosseiny
Think11 Beratung
Rückmeldung werktags in der Regel sehr schnell