Core Web Vitals & KI-Sichtbarkeit: Page Experience für generative Suche

· von geaio

Definition: Core Web Vitals sind drei von Google definierte Leistungsmetriken — Largest Contentful Paint (LCP), Interaction to Next Paint (INP) und Cumulative Layout Shift (CLS) — die messbare Aspekte der Nutzererfahrung auf einer Webseite erfassen. Sie sind Teil der Page Experience Signale und beeinflussen seit 2021 das Google-Ranking. Seit dem Aufkommen der KI-Suche gelten sie zusätzlich als technische Voraussetzung dafür, dass KI-Crawler wie GPTBot, PerplexityBot oder Googlebot eine Seite vollständig verarbeiten und zitieren können.

Core Web Vitals & KI-Sichtbarkeit: Page Experience für die generative Suche

Core Web Vitals und KI-Sichtbarkeit hängen enger zusammen als viele Website-Betreiber vermuten. Wer in ChatGPT, Perplexity oder Google AI Overviews gefunden werden möchte, muss zunächst sicherstellen, dass seine Seite von KI-Crawlern überhaupt vollständig abgerufen werden kann. Langsame Ladezeiten, blockierte Bots oder fehlerhafte Canonical Tags sind in der generativen Suche keine bloßen Ranking-Nachteile mehr — sie sind Ausschlusskriterien.

Warum Core Web Vitals die KI-Crawlbarkeit beeinflussen

KI-Systeme wie ChatGPT, Perplexity oder GEAIO speisen ihre Antworten aus indizierten Inhalten — und diese Inhalte müssen von Crawlern schnell und vollständig abrufbar sein. Eine langsame oder technisch fehlerhafte Seite erhöht das Risiko, dass ein KI-Bot den Crawl abbricht oder die Seite grundsätzlich niedriger priorisiert.

Laut einer Analyse von 107.000 Seiten (Search Engine Land, 2025) wirken Core Web Vitals für die KI-Suche nicht als Wachstumshebel, sondern als Eintrittshürde: Seiten mit guten Werten schneiden in KI-Zitierungen nicht automatisch besser ab — aber Seiten mit schlechten Werten werden nachweislich seltener berücksichtigt. Technisches SEO schützt demnach vor dem Ausschluss aus der KI-Suche, sorgt aber nicht allein für Vorrang.

Für GEO (Generative Engine Optimization) bedeutet das: Wer auf KI-Sichtbarkeit optimiert, muss zuerst sicherstellen, dass seine technische Basis stimmt. Erst danach greifen inhaltliche GEO-Maßnahmen wie strukturierte Daten oder LLMO-Content.

Die drei Metriken und ihre Schwellenwerte im Überblick

Google definiert für jede der drei Core Web Vitals klare Grenzwerte. Werte im grünen Bereich gelten als „gut”, der gelbe Bereich bedeutet „Verbesserungsbedarf”, der rote als „schlecht”. Grundlage sind die realen Nutzerdaten aus dem Chrome User Experience Report (CrUX) — gemessen am 75. Perzentil.

MetrikGutVerbesserungsbedarfSchlecht
LCP (Ladezeit größtes Element)≤ 2,5 s2,5–4,0 s> 4,0 s
INP (Reaktionszeit auf Eingaben)≤ 200 ms200–500 ms> 500 ms
CLS (Layoutverschiebung)≤ 0,10,1–0,25> 0,25

Besonders relevant für die KI-Suche: Ein LCP-Wert über 3 Sekunden korreliert mit 23 % mehr Traffikverlust gegenüber schnelleren Wettbewerbern mit vergleichbarem Content. (Search Engine Land, 2025) Seiten bestehen den Core Web Vitals-Check nur dann, wenn alle drei Metriken gleichzeitig im grünen Bereich liegen — eine einzelne schwache Metrik genügt, um als Gesamtergebnis zu scheitern.

Crawl Budget und KI-Indexierung: Was Website-Betreiber wissen müssen

Das Crawl Budget beschreibt, wie viele Seiten ein Crawler einer Website innerhalb eines bestimmten Zeitraums besucht. Dieses Budget ist begrenzt — sowohl für Googlebot als auch für spezialisierte KI-Crawler. Wer sein Crawl Budget mit Duplikaten, Weiterleitungsketten oder Thin Content verschwendet, riskiert, dass wichtige Seiten gar nicht oder zu selten indexiert werden.

Ein Cloudflare-Bericht (2025) zeigt: GPTBot verzeichnete von Mai 2024 bis Mai 2025 ein Wachstum von 305 %. Das KI-Crawler-Aufkommen insgesamt stieg um 18 %. Gleichzeitig erreicht Googlebot mit 11,6 % der eindeutigen Webseiten nach wie vor mehr als dreimal so viele URLs wie GPTBot (3,6 %) und fast 200-mal mehr als PerplexityBot.

KI-Crawler haben dabei ein anderes Verhalten als klassische Suchmaschinen: Sie priorisieren maschinenlesbare, schnell ladende Inhalte und kehren seltener zurück. Seiten mit hohem Crawl-Budget-Verbrauch werden von KI-Bots noch früher aufgegeben als von Googlebot.

Konkrete Maßnahmen zur Crawl-Budget-Optimierung:

  • Duplikate eliminieren mit Canonical Tags — verhindert, dass Crawler dieselbe inhaltliche Aussage mehrfach crawlen
  • Hreflang korrekt implementieren bei mehrsprachigen Seiten — fehlerhafte Hreflang-Tags führen zu Crawl-Schleifen
  • robots.txt gezielt einsetzen — KI-Crawler wie GPTBot und PerplexityBot gehorchen eigenen robots.txt-Direktiven und müssen explizit erlaubt oder gesperrt werden
  • Interne Verlinkungsstruktur flach halten — tief verschachtelte Seiten werden von KI-Crawlern seltener erreicht

Ein eigener Abschnitt in der robots.txt für KI-Crawler ist mittlerweile Best Practice. Ergänzend dazu legt eine llms.txt-Datei fest, welche Inhalte für KI-Systeme priorisiert werden sollen — wie das genau funktioniert, erklärt der Beitrag über llms.txt und die Optimierung für KI-Crawler.

robots.txt, Canonical Tags und Hreflang: Technische Stolperfallen für KI-Crawler

Drei technische Elemente bereiten Website-Betreibern in der KI-Ära besondere Schwierigkeiten:

robots.txt und KI-Zugang: Viele Betreiber haben nach dem Aufkommen von KI-Scrapern reflexartig User-agent: GPTBot mit Disallow: / gesperrt. Das blockiert jedoch nicht nur unerwünschte Scraper, sondern auch die für GEO relevanten Indexierungs-Crawler von OpenAI, Perplexity und anderen. Die Entscheidung erfordert eine bewusste Abwägung zwischen Datenschutz und KI-Sichtbarkeit.

Canonical Tags: Falsch gesetzte Canonicals gehören zu den häufigsten Crawl-Budget-Killern. Wenn eine Seite auf eine andere canonicalisiert, die selbst noindex trägt, landet der Crawler in einer Sackgasse. Für KI-Crawler ist das besonders problematisch, da sie seltener zurückkehren als Googlebot und eine verpasste Crawl-Chance länger nachwirkt.

Hreflang-Fehler: Bei internationalen Websites führen unvollständige Hreflang-Implementierungen zu gegenseitigen Crawl-Konflikten. KI-Crawler, die keine Sprachpräferenz mitbringen, können dadurch Inhalte doppelt oder gar nicht aufnehmen.

Strukturierte Daten ergänzen diese technische Grundlage auf inhaltlicher Ebene: Sie helfen KI-Modellen, Entitäten und Beziehungen auf einer Seite eindeutig zuzuordnen. Wie das konkret funktioniert, erklärt der Beitrag zu Schema.org Markup für KI-Modelle und strukturierte Daten.

Mit PageSpeed zur besseren KI-Sichtbarkeit — konkrete Maßnahmen

Google PageSpeed Insights ist das zentrale Diagnosetool für Core Web Vitals. Es liefert sowohl Lab-Daten (simuliert) als auch Field-Daten aus realen Nutzersitzungen. Für die KI-Optimierung sind Field-Daten entscheidender — sie spiegeln das tatsächliche Crawl-Erlebnis wider und bilden die Grundlage, auf der KI-Systeme die technische Qualität einer Seite bewerten.

Prioritäre Maßnahmen nach Wirkung:

  1. LCP optimieren: Größtes sichtbares Element (meist Hero-Bild oder H1) mit <link rel="preload"> vorladen, Server-Response-Zeit unter 600 ms halten
  2. INP verbessern: JavaScript-Ausführung entlasten — Code-Splitting, Lazy Loading, Event-Handler optimieren
  3. CLS reduzieren: Bildabmessungen explizit setzen, Webfonts mit font-display: swap laden, keine dynamisch nachgeladenen Elemente über bestehendem Content einfügen
  4. TTFB senken: Time to First Byte unter 800 ms halten — entscheidend für Crawl-Effizienz, da Bots mit Timeout arbeiten

Eine 100-Millisekunden-Verzögerung beim Laden kann die Conversion Rate um 7 % senken. (Deloitte/Google-Studie) Für KI-Crawler bedeutet jede Millisekunde Mehraufwand eine geringere Wahrscheinlichkeit, dass alle Seiteninhalte vollständig abgerufen werden. Hinzu kommt: 53 % der mobilen Nutzer verlassen eine Seite, wenn sie länger als 3 Sekunden lädt. (Google) KI-Crawler sind zwar geduldiger als Menschen — aber auch sie brechen ab, wenn Server-Antwortzeiten konstant zu hoch sind.

Fazit: Technisches SEO als Grundlage der KI-Sichtbarkeit

Core Web Vitals und Page Experience Signale sind keine reinen Ranking-Faktoren mehr — sie sind technische Voraussetzungen für die Sichtbarkeit in der generativen Suche. Wer langsame Ladezeiten, blockierte Crawler oder fehlerhafte Canonical Tags ignoriert, verschenkt KI-Sichtbarkeit, bevor inhaltliche GEO-Maßnahmen überhaupt greifen können.

Die Formel für technisches SEO in der KI-Ära lautet: erst crawlbar, dann indexierbar, dann zitierbar. geaio analysiert vollautomatisch, ob deine Website diese Voraussetzungen erfüllt — und zeigt konkret, wo KI-Systeme wie ChatGPT oder Perplexity an technischen Barrieren scheitern, bevor sie deinen Content überhaupt zu Gesicht bekommen.

Häufig gestellte Fragen

Beeinflussen Core Web Vitals direkt, ob ChatGPT meine Seite zitiert? Nicht direkt, aber indirekt: Schlechte Core Web Vitals erhöhen die Wahrscheinlichkeit, dass KI-Crawler eine Seite nicht vollständig crawlen oder den Abruf frühzeitig abbrechen. Eine Analyse von 107.000 Seiten zeigt, dass gute CWV-Werte allein keine höhere Zitierhäufigkeit garantieren — aber schlechte Werte den Zugang systematisch erschweren.

Wie erkenne ich, ob KI-Crawler meine Seite besuchen? Über Server-Logs oder Tools wie Cloudflare Analytics lässt sich der User-Agent von Bots wie GPTBot, ClaudeBot oder PerplexityBot nachverfolgen. geaio prüft per Crawl-Simulation, welche Inhalte für KI-Systeme tatsächlich zugänglich sind — und welche durch technische Blockaden unsichtbar bleiben.

Darf ich GPTBot in der robots.txt sperren? Ja, das ist technisch möglich und rechtlich zulässig. Es hat jedoch zur Folge, dass deine Inhalte nicht in ChatGPT-Antworten berücksichtigt werden. Wer KI-Sichtbarkeit anstrebt, sollte GPTBot und andere KI-Crawler explizit erlauben und stattdessen über eine llms.txt steuern, welche Inhalte priorisiert werden sollen.

Was ist der wichtigste erste Schritt zur technischen KI-Optimierung? PageSpeed Insights für die wichtigsten Seiten ausführen und alle LCP-Werte über 4 Sekunden priorisiert beheben. Parallel prüfen, ob KI-Crawler in der robots.txt gesperrt sind. Anschließend Canonical Tags und interne Verlinkung auf Konsistenz prüfen. geaio automatisiert diese Analyse und liefert einen priorisierten Aktionsplan — ohne manuelle Recherche in dutzend verschiedenen Tools.