Leistung · A/B Testing

Aus Hypothese wird Beweis. A/B Testing, das skaliert.

A/B Testing — statistisch sauber, intern verteidigbar, ohne Redesign-Risiko. Wir testen mit echtem Traffic — bevor Sie sechsstellig in einen Relaunch investieren.

VARIANTE A
0.0% Conversion Rate
★ Winner
VARIANTE B
0.0% Conversion Rate
+47 %
Statistisch signifikanter Uplift Variante B gewinnt nach 18.400 Sessions · Konfidenz 95 %
Was ist A/B Testing

Beweisen, was wirkt — bevor es teuer wird.

A/B-Testing ist eine der mächtigsten Methoden, um Websites und Online-Shops nachhaltig zu verbessern. Zwei Versionen einer Seite werden zufällig an unterschiedliche Nutzergruppen ausgespielt — und Sie sehen messbar, welche besser performt. Nicht in Theorie, sondern an echten Besucher:innen.

Aber Achtung: A/B-Testing ist nicht der Anfang Ihrer Optimierung. Es ist die Validierung von Hypothesen, die aus einer fundierten Analyse stammen. Ohne saubere Datenbasis testen Sie ins Blaue — und treffen am Ende Entscheidungen, die statistisch wertlos sind.

Deshalb starten wir bei jedem Mandat zuerst mit einer strukturierten Conversion-Analyse. Erst wenn klar ist, was getestet werden soll und warum, lohnt sich der Test.

Methodik

Vier Schritte zum sauberen Test

Wir testen nicht nach Bauchgefühl. Wir testen nach Protokoll — damit Ihre Ergebnisse intern verteidigbar sind.

— 01

Klare Ziele definieren

Jeder Test braucht eine konkrete, messbare Hypothese. Wir entwickeln sie auf Basis Ihrer Conversion-Analyse — nicht auf Basis von Annahmen.

— 02

Testdauer richtig setzen

Mindestens zwei Wochen. Saisonale Schwankungen, Wochentage und externe Effekte werden in der Planung berücksichtigt — nicht im Nachhinein hineininterpretiert.

— 03

Genug Daten sammeln

Mindestens 500 Besucher:innen pro Variante. Bei kleineren Traffic-Volumen stimmen wir die Konfidenz-Schwelle und Testdauer entsprechend an — bevor wir starten, nicht währenddessen.

— 04

Testideen aus Siteclinics

In unseren Live-Siteclinics entwickeln wir gemeinsam mit Ihnen Testkonzepte — kostenfrei, unverbindlich, mit konkreten Hypothesen, die Sie sofort umsetzen können.

Case Study · Gelbe Seiten

Wenn der Blick eines Models +47 % Conversion bringt.

Ein Klassiker aus unserer Test-Praxis — und ein Beweis, wie viel Verhaltensökonomie auf Landingpages bewirken kann. Bei Gelbe Seiten haben wir den Gaze-Cueing-Effekt getestet: das psychologische Phänomen, dass Menschen unbewusst dem Blick anderer Menschen folgen.

Variante A zeigte ein Model, das frontal in die Kamera schaute. Variante B zeigte dasselbe Model — nur mit dem Blick auf den entscheidenden Call to Action gerichtet. Sonst nichts. Keine andere Änderung. Kein Redesign.

Das Ergebnis war eindeutig: Die Aufmerksamkeit der Besucher:innen wanderte deutlich häufiger auf den Button. Die Conversion-Rate stieg signifikant — und das Erlebnis blieb absolut natürlich.

  • Hypothese aus der Conversion-Analyse abgeleitet
  • 18.400 Sessions über 21 Tage Laufzeit
  • Konfidenz 95 % · statistisch signifikant
  • +47 % Conversion-Rate bei Variante B
Kostenloses Erstgespräch sichern Wir starten mit der Analyse
Case · Gelbe Seiten · Gaze Cueing
VORHER Variante A · Original-Landingpage Gelbe Seiten
0.0% CR
NACHHER Variante B · Mit Gaze-Cueing-Effekt
0.0% CR
+47 %
Conversion Uplift durch Gaze Cueing Statistisch signifikant · 18.400 Sessions · 21 Tage
Whitepaper · Case Study

Holen Sie sich die komplette Gelbe-Seiten-Case als PDF.

Inkl. Hypothesen-Setup, Test-Aufbau, statistischer Auswertung und der vollständigen Begründung des Gaze-Cueing-Effekts. So können Sie den Test-Aufbau auf Ihre eigenen Landingpages übertragen.

  • 15 Seiten Detailanalyse mit Hypothesen-Logik
  • Vorher/Nachher-Vergleich aller getesteten Elemente
  • Statistische Auswertung mit Konfidenz-Intervallen
  • Übertragbare Take-aways für Ihre eigene Optimierung
PDF
Gelbe Seiten · Case Study 15 Seiten · ca. 8 MB

Sie erhalten die Case Study sofort per E-Mail. Kein Newsletter, kein Sales-Funnel — versprochen.

Voraussetzungen

Wann A/B-Testing wirklich Sinn macht.

Nicht jedes Setup ist reif für strukturierte Tests. Wir sind ehrlich, bevor wir starten.

— 01

Solide Grundprozesse

Ihr Shop oder Ihre Website läuft stabil, Marketing-Kampagnen sind aktiv und liefern verlässlich Traffic. Ohne stabile Basis sind Tests verzerrt.

— 02

Ressourcen für die Umsetzung

Tests brauchen Planung, Implementierung und Auswertung. Wir übernehmen das oder arbeiten mit Ihrem Team — wichtig ist, dass es jemand tut.

— 03

Hypothesen aus der Analyse

Gut durchdachte Hypothesen sind die Voraussetzung für aussagekräftige Tests. Sie kommen aus Ihrer Conversion-Analyse — nicht aus dem Workshop-Brainstorming.

Häufige Fehler

Was wir bei den meisten Tests sehen.

Sieben Klassiker, die wir im Mittelstand immer wieder finden — und die jeden Test sabotieren.

— 01

Unklare Botschaften

Wenn Besucher:innen in 3 Sekunden nicht verstehen, was Sie anbieten, gewinnt jede Variante zu wenig.

— 02

Zu viele Formularfelder

Jedes zusätzliche Feld kostet messbar Conversion. Fragen Sie nur, was Sie wirklich brauchen.

— 03

Fehlende oder schwache CTAs

Ein Call-to-Action muss gefunden, verstanden und vertraut werden. Sonst wird er ignoriert.

— 04

Inkonsistenz Ad → Landingpage

Das Versprechen Ihrer Anzeige muss sich auf der Landingpage einlösen. Sonst springen Besucher:innen sofort ab.

— 05

Langsame Ladezeiten

Jede zusätzliche Sekunde kostet Conversion. Performance ist die unsichtbarste, aber wichtigste UX-Disziplin.

— 06

Schwache Mobile-Optimierung

Mehr als die Hälfte Ihres Traffics ist mobil. Mobile-Tests sind kein Bonus — sie sind Pflicht.

A/B Testing — Statistik in Klartext

Stichprobengröße, MDE und statistische Signifikanz.

Drei Begriffe, die bei jedem A/B Test fallen — und die wir vor dem Start gemeinsam mit Ihnen durchrechnen, damit am Ende kein „nicht aussagekräftig" steht.

— 01

Stichprobengröße

Die Anzahl Sessions, die Sie pro Variante brauchen, damit der Test überhaupt eine Chance hat, einen Effekt zu sehen. Hängt direkt an Ihrer Ausgangs-Conversion-Rate und am erwarteten Uplift. Bei 2 % Conversion und +10 % Ziel: rund 30.000 Sessions je Variante.

— 02

MDE (Minimum Detectable Effect)

Der kleinste Unterschied zwischen A und B, den Ihr A/B Test bei gegebener Stichprobe sicher messen kann. Je kleiner die Veränderung — etwa ein Button-Text statt einer ganzen Page — desto höher der nötige MDE oder die nötige Laufzeit.

— 03

Statistische Signifikanz

Die Wahrscheinlichkeit, dass der gemessene Uplift nicht zufällig ist. Branchen- und Gerichts-Standard sind 95 % Konfidenz. Erst dann gilt ein A/B Test bei uns als gewonnen — alles darunter ist Indiz, kein Beweis. Mehr im Glossar →

FAQ · Häufige Fragen

A/B Testing — die Fragen, die wir am häufigsten hören.

Ehrliche, unverklausulierte Antworten aus 20 Jahren Praxis im Mittelstand.

Wie funktioniert A/B Testing?

Beim A/B Testing wird der Traffic einer Seite per Zufallsprinzip auf zwei (oder mehr) Varianten aufgeteilt: Variante A ist die Kontrolle, Variante B die geänderte Version. Beide laufen gleichzeitig im selben Zeitraum, damit Saison- oder Wochentags-Effekte beide Varianten gleichermaßen treffen. Gemessen wird ein klar definiertes Conversion-Ziel — etwa Käufe, Anmeldungen oder Leads. Nach Erreichen der vorab berechneten Stichprobengröße wird statistisch geprüft, ob der Unterschied zwischen den Varianten signifikant ist (Branchenstandard: 95 % Konfidenz). Erst dann gilt der Test als entschieden und die Gewinner-Variante wird ausgerollt.

Wie macht man A/B Testing? — Schritt für Schritt

Sieben Schritte für einen sauberen A/B Test:

  1. Hypothese formulieren — was glauben wir, warum, mit welcher erwarteten Wirkung.
  2. Conversion-Ziel definieren (Käufe, Leads, Klicks).
  3. Test-Tool wählen — VWO, AB Tasty, Kameleoon oder GrowthBook.
  4. Stichprobengröße & MDE vorab berechnen, daraus die nötige Laufzeit ableiten.
  5. Variante B bauen, technisch QA-en, auf Mobile & Desktop testen.
  6. Test live schalten — ohne Peeking, ohne vorzeitiges Stoppen.
  7. Nach Erreichen der Stichprobe statistisch auswerten und nur bei ≥ 95 % Konfidenz ausrollen.

Wer einen dieser Schritte überspringt — vor allem 4 und 7 — produziert Pseudo-Ergebnisse.

Wie viele Besucher braucht ein A/B Test?

Faustregel: bei einer Ausgangs-Conversion-Rate von 2–3 % und einer angestrebten relativen Verbesserung (MDE) von 10 % sind rund 20.000–40.000 Sessions pro Variante nötig, um auf 95 % Konfidenz zu kommen. Je kleiner der erwartete Uplift, desto größer die Stichprobe — wir berechnen die nötige Größe vor dem Start, damit am Ende kein „nicht aussagekräftig" steht.

Wie lange dauert ein A/B Test?

Mindestens zwei volle Wochen, um Wochentag- und Saisoneffekte abzudecken. Die tatsächliche Laufzeit ergibt sich aus der nötigen Stichprobengröße geteilt durch den realen Tages-Traffic. Tests vorzeitig zu stoppen, weil eine Variante früh führt, ist der häufigste Fehler — die Konfidenz ist dann nicht erreicht und das Ergebnis statistisch wertlos.

Was bedeutet statistische Signifikanz beim A/B Testing?

Statistische Signifikanz beschreibt die Wahrscheinlichkeit, dass der gemessene Unterschied zwischen Variante A und B nicht zufällig ist. Branchenstandard sind 95 % Konfidenz: das heißt, in höchstens 5 von 100 Fällen wäre der gleiche Effekt auch ohne echten Unterschied messbar. Erst ab 95 % gilt ein Test bei uns als gewonnen — alles darunter ist Hypothese, kein Beweis.

Was kostet professionelles A/B Testing?

Ein einzelner, sauber aufgesetzter Test (Hypothese, Implementierung, statistische Auswertung, Dokumentation) liegt typischerweise zwischen 2.500 und 6.000 € — abhängig von technischer Komplexität und Tooling. Sinnvoll wird A/B Testing aber erst als laufendes Programm: 6–8 Tests pro Jahr in einem Retainer von 3.500–7.000 € monatlich, inklusive vorgelagerter Conversion-Analyse.

Was ist Google Optimize?

Google Optimize war das kostenlose A/B-Testing- und Personalisierungs-Tool von Google, eng integriert in Google Analytics. Es wurde 2017 als Teil der Google-Marketing-Platform eingeführt und richtete sich vor allem an kleine und mittlere Websites, die ohne Budget einsteigen wollten. Am 30. September 2023 hat Google das Tool eingestellt — sowohl die kostenlose Variante (Optimize) als auch die Enterprise-Version (Optimize 360). Bestehende Tests wurden an dem Datum automatisch beendet.

Was macht Google Optimize?

Google Optimize bot vier Test-Typen: A/B-Tests (zwei Varianten gegeneinander), Multivariate Tests (mehrere Elemente in Kombination), Redirect-Tests (komplette URL-Wechsel) und Personalisierungen (dauerhafte Anpassungen für bestimmte Zielgruppen). Die Bedienung lief über einen visuellen WYSIWYG-Editor direkt im Browser, die Auswertung kam aus Google Analytics — inklusive Bayes-Statistik und Targeting-Optionen wie Geo, Device oder Custom-Audiences. Da das Tool seit September 2023 abgeschaltet ist, übernehmen heute Lösungen wie VWO, AB Tasty, Kameleoon oder GrowthBook diese Funktionen.

Welche Alternativen gibt es zu Google Optimize?

Google Optimize wurde im September 2023 eingestellt. Sinnvolle Alternativen für den Mittelstand: VWO (gutes Preis-Leistungs-Verhältnis, server-side möglich), AB Tasty (DSGVO-konform, EU-Hosting, starkes Personalisierungs-Modul), Kameleoon (Fokus auf KI-gestützte Personalisierung), Convert (datenschutzfreundlich, transparente Preise) oder GrowthBook (Open Source, self-hosted für maximale Datenkontrolle). Für reine Server-Side-Tests ohne UI-Tooling: LaunchDarkly oder Statsig. Welches Tool passt, hängt an Traffic-Volumen, Tracking-Setup und Datenschutz-Anforderungen — wir wählen das Tool im Erstgespräch passend zur Infrastruktur aus.

A/B Test oder multivariater Test — was ist sinnvoller?

Für 90 % der Fälle im Mittelstand: A/B Test. Multivariate Tests (MVT) testen mehrere Elemente gleichzeitig in allen Kombinationen — das vervielfacht den Traffic-Bedarf und ist nur bei sehr hohem Volumen aussagekräftig. A/B Tests beantworten eine klare Hypothese sauber, schnell und intern verteidigbar.

Brauche ich für A/B Testing einen Cookie-Banner?

Für die reine Test-Persistenz reicht ein technisch notwendiger First-Party-Cookie ohne Consent. Sobald aber personenbezogene Auswertung (z.B. via GA4 oder Marketing-Pixel) dazukommt, greift die DSGVO und ein Consent-Layer ist Pflicht. Wir setzen Tests so auf, dass die statistische Auswertung auch ohne Tracking-Consent funktioniert.

Nächster Schritt

Lassen Sie uns Ihre erste Hypothese
im Erstgespräch entwickeln.

Kostenfrei. Unverbindlich. Konkret. Wir prüfen Ihren Funnel, identifizieren die Hebel mit dem höchsten Test-Potenzial — und sagen Ihnen ehrlich, ob A/B-Testing für Sie aktuell der richtige nächste Schritt ist.

Erstgespräch vereinbaren
Jeder Test beginnt mit einer Conversion-Analyse
Erstgespräch vereinbaren →