A/B-Testing: Der vollständige Leitfaden zum Split-Testing im Marketing (2026)
Lerne, wie du A/B-Tests durchführst, die Conversions wirklich steigern. Mit E-Mail, Landingpages und Anzeigen, echten Beispielen, Tools und statistischen Best Practices.
A/B-Testing gehört zu den wirkungsvollsten Aktivitäten im Marketing. Statt darüber zu diskutieren, ob ein roter Button besser konvertiert als ein grüner, lässt du dein Publikum mit echten Daten entscheiden. Unternehmen, die systematisch testen, hängen diejenigen ab, die auf ihr Bauchgefühl setzen – und der Abstand wächst mit der Zeit.
Dieser Leitfaden deckt alles ab, was du brauchst, um A/B-Tests mit zuverlässigen, umsetzbaren Ergebnissen durchzuführen – über E-Mail-Kampagnen, Landingpages, Anzeigen und Produkterlebnisse hinweg. Egal, ob du neu im Split-Testing bist oder deine Methodik schärfen willst: Hier findest du praxisnahe Frameworks, echte Beispiele und Tool-Empfehlungen.
Was ist A/B-Testing?
A/B-Testing (auch Split-Testing genannt) ist ein kontrolliertes Experiment, bei dem du zwei Versionen eines Marketing-Assets vergleichst, um herauszufinden, welche auf Basis einer bestimmten Kennzahl besser abschneidet. Du teilst dein Publikum nach dem Zufallsprinzip in zwei Gruppen, zeigst jeder Gruppe eine andere Version und misst den Unterschied im Ergebnis.
Das Konzept stammt aus randomisierten kontrollierten Studien in der Wissenschaft. Indem du jeweils nur eine Variable änderst und alles andere konstant hältst, kannst du den Effekt dieser einen Änderung mit statistischer Sicherheit isolieren.
So funktioniert A/B-Testing
Jeder A/B-Test folgt demselben Grundmuster:
- Beobachte eine Kennzahl, die du verbessern willst (z. B. liegt die E-Mail-Öffnungsrate bei 18 %).
- Stelle eine Hypothese auf, wie eine Änderung das verbessern könnte („Eine kürzere, neugierig machende Betreffzeile steigert die Öffnungen”).
- Erstelle zwei Versionen: die Kontrolle (A) und die Variante (B).
- Teile dein Publikum zufällig auf, sodass beide Gruppen statistisch gleichwertig sind.
- Lass den Test laufen – für eine festgelegte Dauer oder bis die erforderliche Stichprobengröße erreicht ist.
- Analysiere die Ergebnisse mithilfe der statistischen Signifikanz, um den Gewinner zu bestätigen.
- Implementiere die Gewinnerversion und dokumentiere die Erkenntnis.
A/B-Testing vs. multivariates Testing
A/B-Testing vergleicht zwei Versionen mit einem geänderten Element. Multivariates Testing (MVT) ändert mehrere Elemente gleichzeitig und misst jede Kombination.
| Merkmal | A/B-Testing | Multivariates Testing |
|---|---|---|
| Geänderte Variablen | Eine | Mehrere |
| Benötigte Versionen | 2 | Viele (2^n Kombinationen) |
| Erforderliche Stichprobe | Moderat | Sehr groß |
| Komplexität | Gering | Hoch |
| Geeignet für | Fokussierte Optimierung | Zusammenspiel von Elementen verstehen |
| Zeit bis zum Ergebnis | Schneller | Langsamer |
Für die meisten Marketing-Teams ist A/B-Testing der bessere Einstiegspunkt. Multivariates Testing wird dann nützlich, wenn du sehr viel Traffic hast und verstehen willst, wie Elemente zusammenwirken.
Warum A/B-Testing wichtig ist
Daten ersetzen Meinungen
Marketing-Teams verlieren enorm viel Zeit mit Diskussionen über subjektive Vorlieben. A/B-Testing ersetzt „Ich finde diese Überschrift besser” durch „Version B hat die Anmeldungen mit 95 % Konfidenz um 14 % gesteigert”. Dieser Wechsel verändert, wie Teams Entscheidungen treffen und Ressourcen einsetzen.
Kleine Verbesserungen summieren sich
Eine Steigerung der Conversion-Rate um 5 % mag für sich genommen bescheiden wirken. Wenn du jedoch mehrere 5-%-Verbesserungen über deinen gesamten Funnel stapelst, ist der Effekt erheblich:
- E-Mail-Öffnungsrate: von 18 % auf 18,9 % (+5 %)
- Click-Through-Rate: von 3,2 % auf 3,36 % (+5 %)
- Landingpage-Conversion: von 8 % auf 8,4 % (+5 %)
- Kombinierter Effekt: 12,6 % mehr Conversions beim selben Traffic
Über ein Jahr konsequentes Testen können sich diese inkrementellen Gewinne verdoppeln oder verdreifachen – ohne das Marketingbudget zu erhöhen.
Risiko reduzieren
Ein komplettes Website-Redesign oder eine neue E-Mail-Vorlage ohne Test auszurollen, ist ein Glücksspiel. Mit A/B-Tests validierst du Änderungen an einem kleinen Publikumssegment, bevor du sie breit ausrollst. Wenn die neue Version schlechter abschneidet, hast du den Schaden auf einen Bruchteil deiner Nutzer:innen begrenzt.
Organisationswissen aufbauen
Jeder Test – ob gewonnen oder verloren – erweitert das Verständnis deiner Organisation dafür, was Kund:innenverhalten antreibt. Mit der Zeit entsteht so ein sich selbst verstärkender Wissensvorsprung, den Wettbewerber:innen nicht leicht kopieren können.
Was du A/B-testen solltest
Die wirkungsvollsten Tests zielen auf Elemente, die zentrale Conversion-Metriken direkt beeinflussen. Hier eine Übersicht nach Kanal.
A/B-Testing im E-Mail-Marketing
E-Mail ist einer der einfachsten und lohnendsten Kanäle zum Testen, weil du volle Kontrolle über die Variablen hast und Ergebnisse schnell messen kannst.
Betreffzeilen sind der Einzel-Hebel mit der größten Wirkung im E-Mail-Marketing. Sie entscheiden, ob deine Nachricht überhaupt geöffnet wird.
Teste Varianten wie:
- Länge: kurz (3–5 Wörter) vs. beschreibend (8–12 Wörter)
- Personalisierung: mit Namen oder Unternehmen der Empfänger:innen vs. generisch
- Dringlichkeit: „Letzte Chance” oder Deadlines vs. neutrale Formulierung
- Neugier: offene Schleifen („Die eine Kennzahl, die die meisten Marketer ignorieren”) vs. direkte Nutzenaussagen
- Emoji: mit vs. ohne
- Konkrete Zahlen: „5 Strategien” vs. „Strategien” ohne Zahl
E-Mail-Content-Tests, die sich lohnen:
- CTA-Platzierung: oberhalb des Falzes vs. nach dem Aufbau der Argumente
- CTA-Text: „Jetzt starten” vs. „Kostenlose Testversion starten” vs. „Sehen, wie es funktioniert”
- Layout: einspaltig vs. mehrspaltig
- Bildeinsatz: Produktbilder vs. Lifestyle-Bilder vs. reiner Text
- Textlänge: kurz und knackig vs. ausführlich und detailliert
- Social Proof: mit Testimonials vs. mit Statistiken vs. ohne beides
Versandzeitpunkt-Optimierung kann die Öffnungsraten deutlich beeinflussen. Teste dieselbe E-Mail zu unterschiedlichen Tageszeiten oder Wochentagen, um zu ermitteln, wann dein spezifisches Publikum am aktivsten ist.
A/B-Testing auf Landingpages
Landingpages bieten die meisten Testvariablen und erzeugen oft die größten Conversion-Zuwächse.
Überschriften: Deine Überschrift ist das Erste, was Besucher:innen lesen, und hat den größten Einfluss auf die Absprungrate.
- nutzenorientiert („Baue deine E-Mail-Liste 3× schneller auf”) vs. feature-orientiert („KI-gestützter E-Mail-Listen-Builder”)
- Frageform („Verlierst du immer noch Abonnent:innen?”) vs. Aussageform
- kurz und prägnant vs. lang und spezifisch
Call-to-Action-Buttons:
- Buttonfarbe (teste Kontrast, nicht nur isolierte Farben)
- Buttontext („Kostenlos registrieren” vs. „Jetzt wachsen” vs. „Mein Konto anlegen”)
- Buttongröße und -platzierung
- ein einzelner CTA vs. mehrere CTAs
Seitenlayout und Design:
- Langform- vs. Kurzform-Seiten
- Video above the fold vs. statisches Bild
- Platzierung und Format von Testimonials
- Formularlänge (weniger Felder vs. mehr Qualifizierung)
- Trust-Badges und Sicherheitssiegel
Preisdarstellung:
- Monats- vs. Jahrespreise zuerst anzeigen
- Kennzeichnung „Am beliebtesten”
- Drei- vs. Zwei-Stufen-Preismodell
A/B-Testing von Anzeigen
Plattformen für bezahlte Werbung wie Google Ads und Meta Ads haben integriertes A/B-Testing – eine saubere Methodik ist trotzdem entscheidend.
- Anzeigentext: verschiedene Value Propositions, emotionale vs. rationale Ansprache
- Überschriften: unterschiedliche Winkel für dieselbe Keyword-Intention
- Kreativ-Assets: verschiedene Bilder, Videos oder Grafikstile
- Zielgruppensegmente: dieselbe Anzeige in unterschiedlichen Targeting-Kriterien
- Landingpage-Ziele: Anzeigentraffic auf verschiedene Seiten leiten
Testing von CTAs und Conversion-Elementen
Über einzelne Kanäle hinaus solltest du die Conversion-Elemente testen, die überall in deinem Marketing auftauchen:
- Formularlänge: Jedes zusätzliche Feld senkt die Abschlussrate, steigert aber die Lead-Qualität.
- Social-Proof-Format: Sterne-Bewertungen vs. geschriebene Testimonials vs. Kund:innenlogos
- Dringlichkeits-Elemente: Countdown-Timer, Hinweise auf begrenzte Verfügbarkeit
- Garantie-Messaging: Geld-zurück-Garantien, Bedingungen für Testversionen
- Navigation: mit vs. ohne Navigation auf Conversion-Seiten
Wie du einen A/B-Test durchführst: Schritt für Schritt
Schritt 1: Ziel und Kennzahl festlegen
Beginne mit genau einer Kennzahl. Wer mehrere Metriken gleichzeitig optimieren will, bekommt zwangsläufig mehrdeutige Ergebnisse.
Gute Beispiele:
- „Die E-Mail-Öffnungsrate von 22 % auf 25 % steigern”
- „Die Conversion-Rate der Landingpage von 3,5 % auf 4,5 % verbessern”
- „Die Warenkorbabbruchrate von 68 % auf 62 % senken”
Schritt 2: Hypothese formulieren
Eine starke Hypothese hat drei Bestandteile:
„Wenn wir [Änderung] umsetzen, wird [Kennzahl] sich [verbessern/verschlechtern], weil [Begründung].”
Beispiel: „Wenn wir unser Anmeldeformular von 6 auf 3 Felder kürzen, steigt die Abschlussrate um mindestens 15 %, weil weniger Reibung den wahrgenommenen Aufwand reduziert.”
Die Begründung zählt, weil sie Tests selbst dann zu Lern-Gelegenheiten macht, wenn die Hypothese falsch ist.
Schritt 3: Benötigte Stichprobengröße berechnen
Einen Test zu starten, ohne die benötigte Stichprobengröße zu kennen, ist einer der häufigsten Fehler. Du brauchst genug Daten, damit das Ergebnis statistisch aussagekräftig ist.
Die erforderliche Stichprobengröße hängt von drei Faktoren ab:
- Basis-Conversion-Rate: deine aktuelle Performance
- Minimum Detectable Effect (MDE): die kleinste Verbesserung, die dich noch interessiert
- Teststärke: die Wahrscheinlichkeit, einen echten Effekt zu erkennen (typisch 80 %)
- Signifikanzniveau: deine Toleranz für Falschpositive (typisch 5 %, bzw. p < 0,05)
Beispielrechnung:
Angenommen, deine Landingpage konvertiert bei 5 % (Baseline) und du willst eine relative Verbesserung von 20 % (auf 6 %) erkennen. Bei 80 % Power und 95 % Signifikanz:
- Erforderliche Stichprobe pro Variante: rund 3.600 Besucher:innen
- Gesamte benötigte Stichprobe: 7.200 Besucher:innen
Die Formel verwendet folgende Näherung:
n = (Z_alpha/2 + Z_beta)^2 * [p1(1-p1) + p2(1-p2)] / (p2 - p1)^2Dabei gilt:
- Z_alpha/2 = 1,96 (für 95 % Konfidenz)
- Z_beta = 0,84 (für 80 % Power)
- p1 = 0,05 (Baseline-Rate)
- p2 = 0,06 (erwartete Rate nach Verbesserung)
Eingesetzt:
n = (1,96 + 0,84)^2 * [0,05(0,95) + 0,06(0,94)] / (0,06 - 0,05)^2n = (2,80)^2 * [0,0475 + 0,0564] / (0,01)^2n = 7,84 * 0,1039 / 0,0001n ≈ 8.146 pro VarianteIn der Praxis nutzen die meisten Marketer einen Online-Rechner für Stichprobengrößen oder den, der in ihrem Test-Tool eingebaut ist. Kernbotschaft: Kleinere Effekte brauchen deutlich größere Stichproben, um zuverlässig erkannt zu werden.
Schritt 4: Varianten erstellen
Bleib diszipliniert:
- Ändere nur ein Element pro Test. Wenn du gleichzeitig die Überschrift und die Buttonfarbe änderst, lässt sich das Ergebnis keiner Änderung eindeutig zuschreiben.
- Sorge dafür, dass die Änderung bedeutsam ist. „Buy now” vs. „Buy Now” (Großschreibung) wird kaum messbare Ergebnisse liefern. Teste wirklich unterschiedliche Ansätze.
- Dokumentiere exakt, was geändert wurde, damit die Ergebnisse reproduzierbar sind.
Schritt 5: Publikum randomisieren und aufteilen
Saubere Randomisierung ist entscheidend. Jede:r Besucher:in oder Empfänger:in sollte die gleiche Wahrscheinlichkeit haben, eine der beiden Versionen zu sehen. Die meisten Test-Tools erledigen das automatisch – prüfe aber, dass:
- die Aufteilung wirklich zufällig ist (nicht nach Geografie, Endgerät oder Ankunftszeit)
- jede:r Nutzer:in durchgängig dieselbe Version sieht (kein Springen zwischen Versionen)
- deine Gruppen groß genug sind, um statistisch repräsentativ zu sein
Schritt 6: Den Test vollständig durchlaufen lassen
Hier kommt es auf Disziplin an. Schau nicht ständig auf die Zwischenergebnisse und brich den Test nicht frühzeitig ab, nur weil eine Version gerade vorne liegt. Frühe Ergebnisse sind verrauscht und unzuverlässig.
Gängige Regeln:
- Lass den Test laufen, bis deine vorab berechnete Stichprobengröße erreicht ist.
- Lass ihn mindestens einen vollständigen Geschäftszyklus laufen (typisch 1–2 Wochen für Web, ein kompletter Versand bei E-Mail).
- Ändere während des Tests nichts.
Schritt 7: Ergebnisse analysieren und statistische Signifikanz bestimmen
Ein Ergebnis ist statistisch signifikant, wenn die Wahrscheinlichkeit unter 5 % liegt, dass der beobachtete Unterschied durch Zufall entstanden ist (p-Wert < 0,05).
Beispiel: Dein Test zeigt, dass Version B mit 6,2 % konvertiert, Version A mit 5,0 %, bei einem p-Wert von 0,03. Das heißt: Es gibt nur eine 3-%-Chance, dass dieser Unterschied von 1,2 Prozentpunkten auf Zufall beruht. Du kannst Version B guten Gewissens ausrollen.
Liegt der p-Wert dagegen bei 0,15, ist der beobachtete Unterschied nicht zuverlässig genug, um darauf zu reagieren – auch wenn Version B „gewonnen” hat. Du brauchst mehr Daten oder einen größeren Effekt.
Schritt 8: Umsetzen und weiterlernen
Rolle die Gewinnerversion aus. Dokumentiere Hypothese, was getestet wurde, Ergebnis und Konfidenzniveau. Dann geht’s zum nächsten Test.
Die besten Testing-Programme pflegen einen Backlog von Testideen, priorisiert nach potenziellem Impact und Umsetzungsaufwand.
Statistische Signifikanz: ein genauerer Blick
Konfidenzintervalle verstehen
Verlass dich nicht nur auf p-Werte, sondern schau dir auch Konfidenzintervalle an. Ein 95-%-Konfidenzintervall zeigt dir den Bereich, in dem die wahre Conversion-Rate wahrscheinlich liegt.
Zeigt Version B eine Conversion-Rate von 6,2 % mit einem 95-%-KI von [5,4 %; 7,0 %] und Version A 5,0 % mit einem 95-%-KI von [4,3 %; 5,7 %], deuten die überlappenden Bereiche darauf hin, dass der Unterschied weniger klar ist, als die Punktschätzer vermuten lassen.
Häufige statistische Fehler
- Vorzeitiges Reinschauen: Wer Ergebnisse mehrfach prüft, bläht die Rate der Falschpositiven auf. Prüfst du einen Test fünfmal während der Laufzeit, kann dein effektives Signifikanzniveau bei 15–25 % statt bei 5 % liegen.
- Zu früh abbrechen: Einen Test in dem Moment zu beenden, in dem eine Version Signifikanz erreicht, erwischt oft nur Rauschen – kein Signal.
- Stichprobenanforderungen ignorieren: Einen Test mit 200 Besucher:innen zu fahren und einen Gewinner auszurufen, ist unzuverlässig, egal was die Zahlen zeigen.
- Zu viele Varianten testen: Ein A/B/C/D/E-Test splittet die Stichprobe in fünf Teile und schwächt die Teststärke drastisch.
- Survivorship-Bias im Reporting: Nur Gewinnertests zu teilen, zeichnet ein verzerrtes Bild der Testing-Effektivität.
Bayesianisch vs. frequentistisch
Klassisches A/B-Testing nutzt frequentistische Statistik (p-Werte und Konfidenzintervalle). Einige moderne Tools setzen auf bayesianische Methoden, die Ergebnisse als Wahrscheinlichkeiten ausdrücken („es gibt eine 94-%-Wahrscheinlichkeit, dass B besser ist als A”).
Bayesianische Methoden bieten einige praktische Vorteile:
- Die Ergebnisse sind für Nicht-Statistiker:innen leichter zu interpretieren.
- Du kannst Ergebnisse laufend beobachten, ohne Fehlerraten aufzublähen.
- Sie gehen eleganter mit kleinen Stichproben um.
Beide Ansätze sind zulässig. Wichtig ist, dass du einen konsequent verwendest und seine Annahmen verstehst.
A/B-Testing-Tools im Vergleich
Welches Tool passt, hängt davon ab, was du testest und wie groß dein Setup ist.
Brevo
Am besten für: E-Mail-A/B-Testing und kanalübergreifende Kampagnenoptimierung
Brevo bietet ein solides, integriertes A/B-Testing für E-Mail-Kampagnen und macht Split-Testing auch für kleinere Marketing-Teams zugänglich. Wichtige Funktionen:
- Betreffzeilen-Testing: bis zu vier Betreffzeilen-Varianten testen und die Gewinnerversion automatisch an die restliche Liste senden
- Content-Testing: komplett unterschiedliche E-Mail-Layouts und Texte vergleichen
- Versandzeitoptimierung: KI-gestützte Vorhersage des optimalen Versandzeitpunkts je Empfänger:in
- Flexible Gewinner-Kriterien: Gewinnermetrik wählen (Öffnungen, Klicks oder Umsatz) und Testdauer festlegen
- Automatisierter Gewinnerversand: einmal einstellen, fertig. Brevo sendet die Gewinnerversion nach Ablauf des Tests automatisch an den Rest der Liste.
Der Vorteil von Brevo: A/B-Testing ist nativ in dieselbe Plattform integriert, die du bereits für E-Mail, SMS, WhatsApp und Marketing-Automatisierung nutzt. Es fallen keine Zusatzkosten oder Drittanbieter-Integrationen an, und die Ergebnisse fließen direkt in deine Kampagnenauswertung ein.
Preise: A/B-Testing ist ab dem Business-Plan verfügbar.
Optimizely
Am besten für: Enterprise-Experimente für Web und Produkt
Optimizely ist der Branchenstandard für Website- und Produkt-A/B-Testing in großem Maßstab. Unterstützt Feature-Flags, Server-seitiges Testing und ausgefeiltes Zielgruppen-Targeting. Die Plattform bietet Full-Stack-Experimente – also Tests über Web, Mobile und Backend hinweg.
Preise: individuelles Enterprise-Pricing, in der Regel ab mehreren Tausend US-Dollar pro Monat.
VWO (Visual Website Optimizer)
Am besten für: Website- und Conversion-Optimierung im Mittelstand
VWO bietet einen visuellen Editor zum Erstellen von Testvarianten ohne Code sowie Heatmaps, Session-Aufzeichnungen und Umfragen. Eine gute Balance aus Bedienkomfort und analytischer Tiefe.
Preise: Pläne starten bei rund 199 USD/Monat für grundlegendes Testing.
Google Analytics / Google Tag Manager
Am besten für: einfaches Website-Testing mit kleinem Budget
Google Optimize wurde 2023 eingestellt, aber du kannst mit Google Analytics 4 in Kombination mit dem Google Tag Manager weiterhin einfache A/B-Tests durchführen. Der Aufbau erfordert mehr technischen Aufwand als ein dediziertes Tool, ist aber kostenlos und integriert sich nahtlos in deine Analytics.
Preise: kostenlos.
Unbounce
Am besten für: A/B-Testing von Landingpages
Unbounce kombiniert einen Landingpage-Builder mit integriertem A/B-Testing – so erstellst und testest du Landingpage-Varianten mühelos. Die Smart-Traffic-Funktion nutzt KI, um Besucher:innen automatisch zur Variante zu leiten, die für ihr Profil am wahrscheinlichsten konvertiert.
Preise: Pläne ab 74 USD/Monat, A/B-Testing in höheren Stufen enthalten.
Tools im Überblick
| Tool | Stärkster Kanal | A/B-Testing-Komfort | KI-Features | Einstiegspreis |
|---|---|---|---|---|
| Brevo | E-Mail, SMS, Multi-Channel | Sehr einfach | Versandzeit-KI, Auto-Gewinner | Im Business-Plan enthalten |
| Optimizely | Web, Produkt | Mittel | Predictive Analytics | Enterprise-Pricing |
| VWO | Web, Landingpages | Einfach (visueller Editor) | KI-gestützte Insights | ~199 USD/Monat |
| GA4 + GTM | Web | Technisch | einfache ML-Insights | kostenlos |
| Unbounce | Landingpages | Einfach | Smart-Traffic-Routing | 74 USD/Monat |
Echte A/B-Testing-Beispiele
Beispiel 1: Betreffzeilen-Test
Unternehmen: ein E-Commerce-Shop für Outdoor-Ausrüstung
Test: zwei Betreffzeilen-Ansätze für eine Saison-Sale-E-Mail
- Version A: „Frühjahrs-Sale: 30 % Rabatt auf alle Wander-Ausrüstung”
- Version B: „Dein nächstes Abenteuer beginnt hier (30 % Rabatt inside)”
Ergebnisse:
- Version A: 24,3 % Öffnungsrate, 4,1 % Klickrate
- Version B: 28,7 % Öffnungsrate, 3,8 % Klickrate
- Gewinner: Version B bei Öffnungen, Version A bei Klicks
Erkenntnis: Neugierig machende Betreffzeilen steigerten die Öffnungen, zogen aber weniger kaufbereiten Traffic. Das Team entschied sich, auf die Klickrate zu optimieren, weil sie stärker mit dem Umsatz korrelierte.
Beispiel 2: CTA-Button auf einer Landingpage
Unternehmen: ein SaaS-Produkt mit kostenloser Testversion
Test: CTA-Text auf der Preisseite
- Version A: „Kostenlose Testversion starten”
- Version B: „Kostenlose Testversion starten – keine Kreditkarte erforderlich”
Ergebnisse:
- Version A: 3,8 % Conversion-Rate
- Version B: 5,1 % Conversion-Rate (34 % Verbesserung, p = 0,008)
Erkenntnis: Das wahrgenommene Risiko im CTA-Text zu reduzieren, hat die Anmeldungen signifikant gesteigert. Der Einwand „Muss ich meine Kreditkarte angeben?” war ein großer Reibungspunkt, obwohl die Seite das bereits in kleinerer Schrift erwähnte.
Beispiel 3: Produktempfehlungs-E-Mails mit Tajo
Unternehmen: ein Shopify-Shop, der Tajo nutzt, um Kund:innen- und Bestelldaten mit Brevo zu synchronisieren
Test: zwei Ansätze für automatisierte Produktempfehlungs-E-Mails nach dem Erstkauf
- Version A: generische „Das könnte dir auch gefallen”-Empfehlungen auf Kategoriebasis
- Version B: personalisierte Empfehlungen, angetrieben von der durch Tajo synchronisierten Kaufhistorie und Segmentdaten in Brevo
Ergebnisse:
- Version A: 2,1 % Klickrate, 0,8 % Kaufrate
- Version B: 4,7 % Klickrate, 2,3 % Kaufrate (187 % mehr Käufe)
Erkenntnis: Wenn Customer Intelligence aus Tajo Brevos E-Mail-Engine mit reichhaltigeren Verhaltensdaten füttert, steigt die Relevanz der Empfehlungen deutlich. Entscheidend war, nicht nur Bestelldaten, sondern auch Browsing-Events und Produkt-Affinity-Scores über Tajos Echtzeit-Datenpipeline zu synchronisieren.
Beispiel 4: Anzeigenkreativ-Test
Unternehmen: ein B2B-Softwareunternehmen mit LinkedIn-Anzeigen
Test: zwei Kreativansätze für dieselbe Zielgruppe
- Version A: Produkt-Screenshot mit Feature-Hinweisen
- Version B: Kund:innen-Testimonial-Zitat mit Porträtfoto
Ergebnisse:
- Version A: 0,38 % CTR, 42 USD pro Lead
- Version B: 0,61 % CTR, 28 USD pro Lead (33 % niedrigere CPL)
Erkenntnis: Social Proof schlug Produktfeatures bei kalten Zielgruppen auf LinkedIn. Anschließend testete das Team verschiedene Testimonial-Formate und fand heraus, dass konkrete Kennzahlen im Zitat („12 Stunden pro Woche gespart”) generelles Lob übertrafen.
Häufige Fehler beim A/B-Testing
1. Testen ohne Hypothese
Zufällige Tests ohne klare Hypothese erzeugen Daten, aber kein Wissen. Starte immer mit einer begründeten Vermutung, warum eine Änderung wirken könnte. Selbst wenn deine Hypothese falsch ist, hilft dir die Argumentation, besser zu lernen und bessere Tests zu designen.
2. Tests zu früh beenden
Die Versuchung, nach ein paar Hundert Datenpunkten einen Gewinner auszurufen, ist stark – vor allem, wenn die ersten Ergebnisse dramatisch aussehen. Widersteh ihr. Frühe Ergebnisse regressieren mit mehr Daten in Richtung Mittelwert. Verpflichte dich vor dem Testbeginn auf deine berechnete Stichprobengröße.
3. Triviale Änderungen testen
Einen Button von #FF0000 auf #FF1100 zu ändern, erzeugt keine messbaren Ergebnisse. Fokussiere dich auf Änderungen, die reale Bedenken, Einwände oder Verhaltensmuster von Nutzer:innen adressieren. Die besten Tests ändern Botschaft, Angebot oder User Flow – keine kosmetischen Details.
4. Unterschiede zwischen Segmenten ignorieren
Ein „kein Unterschied”-Ergebnis insgesamt kann deutliche Unterschiede innerhalb von Segmenten verschleiern. Version B funktioniert vielleicht hervorragend für Mobilnutzer:innen, aber schlechter am Desktop. Analysiere Ergebnisse immer auch nach Schlüsselsegmenten (Gerät, Quelle, neu vs. wiederkehrend), sobald die Stichproben es zulassen.
5. Externe Faktoren außer Acht lassen
Ein Test, der während eines Feiertagssales läuft, liefert andere Ergebnisse als einer in einer normalen Woche. Habe saisonale Effekte, Promo-Kalender, Nachrichten-Events und andere externe Faktoren im Blick, die Ergebnisse verzerren könnten.
6. Zu viele Dinge gleichzeitig testen
Änderst du Überschrift, Hero-Bild, CTA-Text und Seitenlayout gleichzeitig, sagt dir ein positives Ergebnis zwar, dass etwas gewirkt hat – aber nicht, was. Priorisiere Testideen nach potenziellem Impact und teste zuerst die hebelstärksten Elemente.
7. Keine Testing-Kultur aufbauen
A/B-Testing scheitert, wenn es als einmaliges Projekt statt als laufende Praxis behandelt wird. Die erfolgreichsten Unternehmen testen kontinuierlich, pflegen ein gemeinsames Ergebnis-Repository und machen Testing zum Standard-Bestandteil jedes Kampagnenstarts.
Ein A/B-Testing-Programm aufbauen
Einen Test-Backlog aufbauen
Pflege eine priorisierte Liste von Testideen mit dem ICE-Framework:
- Impact: Wie stark könnte dieser Test die Zielmetrik verbessern? (1–10)
- Confidence: Wie sicher bist du, dass dieser Test ein aussagekräftiges Ergebnis liefert? (1–10)
- Ease: Wie einfach lässt sich dieser Test umsetzen? (1–10)
Multipliziere die drei Werte, um Tests zu ranken. Ein Test mit hohem Impact, hoher Confidence und einfacher Umsetzung (wie ein Betreffzeilen-Test in Brevo) sollte vor einem potenziell hohen, aber komplexen Test (wie einem vollständigen Checkout-Redesign) priorisiert werden.
Eine Testkadenz etablieren
Ziel ist eine gleichmäßige Frequenz:
- E-Mail-Tests: bei jedem großen Kampagnenversand. Brevo macht das besonders einfach, weil die A/B-Funktionalität direkt im Kampagnen-Workflow integriert ist.
- Landingpage-Tests: laufend, je nach Traffic 2–4 Tests pro Monat.
- Ad-Tests: 1–2 Kreativtests pro Anzeigensatz pro Monat.
Ergebnisse dokumentieren und teilen
Lege ein einfaches Test-Logbuch an mit:
- Testname und Datum
- Hypothese
- Was geändert wurde
- Ergebnisse (inklusive Konfidenzniveau)
- Zentrale Erkenntnis
- Nächster Schritt
Diese Dokumentation wird mit der Zeit zu einem deiner wertvollsten Marketing-Assets.
Häufig gestellte Fragen
Wie lange sollte ein A/B-Test laufen?
So lange, bis du die erforderliche Stichprobengröße erreicht hast – mindestens aber einen vollständigen Geschäftszyklus (typisch 7–14 Tage bei Web-Tests). Bei E-Mail-A/B-Tests in Tools wie Brevo übernimmt die Plattform das Timing automatisch. Du legst die Testdauer fest (üblich 1–4 Stunden für Betreffzeilen-Tests), und die Gewinnerversion geht an die übrigen Empfänger:innen.
Was ist eine gute Stichprobengröße für A/B-Tests?
Das hängt von deiner Baseline-Conversion-Rate und dem Minimaleffekt ab, den du erkennen willst. Als Faustregel: Um eine relative Verbesserung von 10 % auf einer Baseline von 5 % mit 95 % Konfidenz und 80 % Power zu erkennen, brauchst du rund 15.000 Besucher:innen pro Variante. Für E-Mail-Tests liefern Listen mit 1.000+ Abonnent:innen pro Variante in der Regel verlässliche Ergebnisse bei Öffnungsraten-Tests.
Kann ich mehrere A/B-Tests parallel fahren?
Ja – solange sich die Tests nicht gegenseitig beeinflussen. Einen Betreffzeilen-Test und einen Landingpage-Headline-Test gleichzeitig zu fahren, ist in Ordnung, weil sie unterschiedliche Stellen des Funnels betreffen. Zwei Tests gleichzeitig auf derselben Landingpage können Wechselwirkungen erzeugen, die die Ergebnisse verfälschen.
Was ist ein statistisch signifikantes Ergebnis?
Ein Ergebnis, bei dem die Wahrscheinlichkeit, dass der beobachtete Unterschied durch Zufall entstanden ist, unter deiner Signifikanzschwelle liegt – typisch 5 % (p < 0,05). Das bedeutet, du kannst mindestens 95 % sicher sein, dass der Unterschied real ist und nicht zufällig.
Wie teste ich mit einem kleinen Publikum?
Fokussiere dich bei kleinen Zielgruppen auf Elemente mit dem größten potenziellen Effekt. Betreffzeilen-Tests zeigen auch bei kleineren Listen oft aussagekräftige Unterschiede, weil Öffnungsraten-Differenzen tendenziell größer sind. Alternativ kannst du die Testlaufzeit verlängern oder bayesianische Methoden nutzen, die eleganter mit kleinen Stichproben umgehen.
Soll ich immer die statistisch signifikante Gewinnerversion nehmen?
Meistens ja – aber schau dir das Gesamtbild an. Gewinnt Version B bei Klicks, Version A aber beim Umsatz, hängt der „Gewinner” von deinem Geschäftsziel ab. Beachte auch die praktische Signifikanz: Eine statistisch signifikante Verbesserung um 0,1 % ist den Umsetzungsaufwand vielleicht nicht wert.
Was ist der Unterschied zwischen A/B-Testing und Personalisierung?
A/B-Testing ermittelt, welche Version für dein gesamtes Publikum (oder ein Segment) am besten performt. Personalisierung liefert unterschiedlichen Nutzer:innen unterschiedlichen Content auf Basis ihrer Merkmale oder ihres Verhaltens. Beides ergänzt sich: Nutze A/B-Testing, um herauszufinden, welche Personalisierungsstrategien am effektivsten sind.
Heute starten
Du brauchst keine riesige Testing-Infrastruktur, um loszulegen. Beginne im Kanal, in dem du die meiste Kontrolle und die schnellste Rückmeldung hast – für die meisten Unternehmen ist das E-Mail.
Wenn du Brevo nutzt, richtest du deinen ersten A/B-Test in unter fünf Minuten direkt im Kampagnen-Workflow ein. Teste eine Betreffzeile, lass die Plattform den Gewinner automatisch auswählen und sieh dir die Ergebnisse an. Dieser eine Test lehrt dich mehr über dein Publikum als wochenlange interne Diskussionen.
Für E-Commerce-Unternehmen ist es eine der ROI-stärksten Teststrategien, die Shopdaten über Tajo anzubinden und A/B-Tests auf Produktempfehlungs-E-Mails in Brevo zu fahren. Wenn deine E-Mails mit echten Kaufdaten gespeist werden, hast du weit bedeutsamere Elemente zum Testen als generischer Content je bieten könnte.
Die Unternehmen, die gewinnen, sind nicht die mit den besten Bauchgefühlen. Es sind die, die am meisten testen, am schnellsten lernen und ihre Vorteile über die Zeit kumulieren. Starte heute deinen ersten Test.
Verwandte Artikel
- E-Mail-Marketing-Kampagnen: Der vollständige Leitfaden für Planung, Umsetzung und Optimierung
- E-Mail-Marketing-Strategie: Vollständiger Planungs- und Umsetzungsleitfaden [2025]
- E-Mail-Marketing für kleine Unternehmen: Der vollständige Leitfaden (2026)
- E-Mail-Marketing-ROI: Berechnen, tracken und verbessern [2025]
- E-Mail-Marketing für Einsteiger:innen: Der vollständige Einstiegsleitfaden (2026)