Vor zwei Wochen habe ich ein Experiment gemacht. Ich habe ChatGPT, Claude und Perplexity dieselbe Frage gestellt, die ein potenzieller Kunde meiner Agentur stellen würde: „Wer sind die führenden Conversion-Optimierer im DACH-Raum?“ Drei Antworten, drei unterschiedliche Quellenlisten, kaum Überschneidungen — und in genau einer davon tauchte meine eigene Agentur auf. Wenn das mir passiert, als jemand, der seit Jahren über digitale Sichtbarkeit schreibt, wie sieht es dann bei den meisten Mittelständlern aus, die ich berate?

Die stille Verschiebung der Suche

Discovery passiert immer seltener auf einer Trefferliste mit zehn blauen Links. Sie passiert in einer Antwort, mit zwei bis fünf Quellen, kuratiert von einem Sprachmodell. Wer in dieser Antwort nicht vorkommt, existiert für diesen Nutzer nicht. Punkt.

Das ist keine Modeerscheinung, sondern eine fundamentale Verschiebung in der Discovery-Architektur des Internets — vergleichbar mit dem Übergang von Yahoo-Verzeichnissen zu Google-Suche um die Jahrtausendwende. Damals haben Unternehmen, die SEO ignorierten, ihre Sichtbarkeit verloren. Heute droht dasselbe Unternehmen, die GEO (Generative Engine Optimization) ignorieren.

Aus Sicht der Verhaltensökonomie ist die Verschiebung übrigens noch dramatischer als sie aussieht: Wenn ein KI-System eine fertige Antwort liefert, fällt der Vergleich zwischen Anbietern weg. Der Default wird zur Wahl. Wer als Quelle zitiert wird, ist mit hoher Wahrscheinlichkeit die Wahl.

Was eine Website Agent-Ready macht

KI-Agenten lesen Websites anders als Google-Crawler. Sie müssen Inhalte nicht nur finden, sondern verstehen und zitieren können. Daraus ergeben sich sechs konkrete Anforderungen:

1. Semantisches HTML. Klare Überschriftenhierarchie, sinnvolle Tags, kein DIV-Wildwuchs. KI-Agenten parsen den DOM, nicht die visuelle Darstellung.

2. Strukturierte Daten. Schema.org und JSON-LD machen Inhalte maschinenlesbar. FAQs, Produkte, Autoren, Bewertungen — alles als Wissensgraph.

3. Server-Side-Rendering. Viele Crawler führen kein JavaScript aus. Wer auf Client-seitiges Rendering setzt, liefert leere Seiten an die wichtigsten Konsumenten.

4. Antwortorientierter Content. Statt Keyword-Stuffing: präzise Antworten auf konkrete Fragen, in zitierbaren Sätzen. KIs lieben kurze, abgeschlossene Aussagen.

5. Crawler-Konfiguration. GPTBot, ClaudeBot, PerplexityBot brauchen explizite Erlaubnis und idealerweise eine llms.txt, die ihnen die Struktur Ihrer Inhalte erklärt.

6. Verifizierbare Autorität. Eindeutige Autorenschaft, Quellenketten, Aktualität. KIs zitieren bevorzugt, was sie verifizieren können.

Ein typisches WordPress-Setup erfüllt davon ohne gezielte Optimierung selten mehr als zwei Punkte. WordPress kann Agent-Ready werden — aber nur mit Arbeit. Standard-Themes und Plugin-Wildwuchs erzeugen Markup, das KI-Crawler schlecht verarbeiten.

Headless als Brücke

Headless CMS — Sanity, Strapi, Payload, Contentful — trennen Inhalt von Darstellung. Was lange als Designer-Argument galt, ist in der KI-Ära eine technische Notwendigkeit: Sauberes, strukturiertes, statisch generiertes Markup ist genau das, was Agenten bevorzugt zitieren.

Für etablierte WordPress-Setups gibt es zwei Wege: gezielte Optimierung des Bestehenden oder schrittweise Migration. Welcher Weg sinnvoll ist, hängt vom Content-Volumen und der Plugin-Architektur ab — und sollte nicht nach Bauchgefühl entschieden werden, sondern nach einem Audit.

Der nächste Schritt — Agent-natives CMS

Headless ist die Pflicht. Die Kür heißt Agent-natives CMS: ein System, das KI-Agenten nicht nur als Konsumenten, sondern als Mitarbeiter behandelt.

Konkret bedeutet das:

  • Das CMS exponiert seine Inhalte über einen MCP-Server (Model Context Protocol), sodass Claude oder ChatGPT direkt darauf zugreifen — ohne den Umweg über HTML.

  • Inhalte werden als Embeddings indiziert, sodass semantische Suche eingebaut ist.

  • Voice-Input und Agent-Workflows sind erstklassig integriert: Sie sprechen eine Idee, der Agent recherchiert, strukturiert und produziert einen Entwurf, Sie genehmigen.

  • Multi-Channel-Distribution: Ein Inhalt erscheint automatisch als Webseite, LinkedIn-Post, Newsletter und Podcast-Skript — jeweils kanalgerecht angepasst.

  • Performance-Loops schließen den Kreis: Analytics fließen zurück in den Agent-Workflow, sodass das System lernt, welche Formulierungen, Strukturen und Themen funktionieren.

Heute existieren Teile davon (Sanity Agent Actions, Payload, TinaCMS, Eigenbauten auf Astro/Next.js mit MCP-Integration). Eine durchgängige Plattform fehlt noch — und genau hier liegt eine der spannendsten Marktlücken der nächsten 24 Monate. Bei konversion.digital bauen wir Teile dieser Infrastruktur als Optimus AI — als Service für Premium-Kunden und als kommendes CaaS.

Drei Schritte, mit denen Sie heute starten

Wer jetzt anfängt, hat einen Vorsprung von Monaten gegenüber Wettbewerbern, die noch glauben, klassisches SEO reiche aus.

1. Agent Readiness Audit machen. Wie sieht Ihre Website für KI-Crawler aus? Wie oft werden Sie heute zitiert? Wo stehen Sie in den großen LLMs für Ihre Kern-Suchbegriffe? Drei Dimensionen können Sie auf konversion.digital/agent-ready sofort prüfen — den vollständigen Score gibt es im Erstgespräch.

2. Quick Wins umsetzen. Strukturierte Daten, semantisches Markup, FAQ-Schema, Crawler-Konfiguration. Wochen-Aufwand, Monate-Wirkung.

3. CMS strategisch denken. Wer in den nächsten zwei Jahren ohnehin re-platformen will, sollte „Headless plus Agent-Integration“ als Default-Anforderung mit aufnehmen — nicht als Add-on, sondern als Architektur-Prinzip.

Abschluss

Die Suche, wie wir sie 25 Jahre kannten, verschwindet. Was bleibt, sind die Antworten — und die Frage, wer als Quelle dafür anerkannt wird. Wenn morgen ein potenzieller Kunde ChatGPT fragt, wer in Ihrer Branche die beste Wahl ist: Sind Sie in der Antwort? Wenn Sie sich nicht sicher sind, wissen Sie schon, was zu tun ist.

→ Mehr zum Agent Readiness Audit. Drei der acht Dimensionen prüfen Sie dort live; die übrigen fünf gehen wir im Erstgespräch durch.