A/B-Testing: Der vollständige Leitfaden zum Split-Testing im Marketing (2026)

Lerne, wie du A/B-Tests durchführst, die Conversions wirklich steigern. Mit E-Mail, Landingpages und Anzeigen, echten Beispielen, Tools und statistischen Best Practices.

A/B-Testing
A/B-Testing?

A/B-Testing gehört zu den wirkungsvollsten Aktivitäten im Marketing. Statt darüber zu diskutieren, ob ein roter Button besser konvertiert als ein grüner, lässt du dein Publikum mit echten Daten entscheiden. Unternehmen, die systematisch testen, hängen diejenigen ab, die auf ihr Bauchgefühl setzen – und der Abstand wächst mit der Zeit.

Dieser Leitfaden deckt alles ab, was du brauchst, um A/B-Tests mit zuverlässigen, umsetzbaren Ergebnissen durchzuführen – über E-Mail-Kampagnen, Landingpages, Anzeigen und Produkterlebnisse hinweg. Egal, ob du neu im Split-Testing bist oder deine Methodik schärfen willst: Hier findest du praxisnahe Frameworks, echte Beispiele und Tool-Empfehlungen.

Was ist A/B-Testing?

A/B-Testing (auch Split-Testing genannt) ist ein kontrolliertes Experiment, bei dem du zwei Versionen eines Marketing-Assets vergleichst, um herauszufinden, welche auf Basis einer bestimmten Kennzahl besser abschneidet. Du teilst dein Publikum nach dem Zufallsprinzip in zwei Gruppen, zeigst jeder Gruppe eine andere Version und misst den Unterschied im Ergebnis.

Das Konzept stammt aus randomisierten kontrollierten Studien in der Wissenschaft. Indem du jeweils nur eine Variable änderst und alles andere konstant hältst, kannst du den Effekt dieser einen Änderung mit statistischer Sicherheit isolieren.

So funktioniert A/B-Testing

Jeder A/B-Test folgt demselben Grundmuster:

  1. Beobachte eine Kennzahl, die du verbessern willst (z. B. liegt die E-Mail-Öffnungsrate bei 18 %).
  2. Stelle eine Hypothese auf, wie eine Änderung das verbessern könnte („Eine kürzere, neugierig machende Betreffzeile steigert die Öffnungen”).
  3. Erstelle zwei Versionen: die Kontrolle (A) und die Variante (B).
  4. Teile dein Publikum zufällig auf, sodass beide Gruppen statistisch gleichwertig sind.
  5. Lass den Test laufen – für eine festgelegte Dauer oder bis die erforderliche Stichprobengröße erreicht ist.
  6. Analysiere die Ergebnisse mithilfe der statistischen Signifikanz, um den Gewinner zu bestätigen.
  7. Implementiere die Gewinnerversion und dokumentiere die Erkenntnis.

A/B-Testing vs. multivariates Testing

A/B-Testing vergleicht zwei Versionen mit einem geänderten Element. Multivariates Testing (MVT) ändert mehrere Elemente gleichzeitig und misst jede Kombination.

MerkmalA/B-TestingMultivariates Testing
Geänderte VariablenEineMehrere
Benötigte Versionen2Viele (2^n Kombinationen)
Erforderliche StichprobeModeratSehr groß
KomplexitätGeringHoch
Geeignet fürFokussierte OptimierungZusammenspiel von Elementen verstehen
Zeit bis zum ErgebnisSchnellerLangsamer

Für die meisten Marketing-Teams ist A/B-Testing der bessere Einstiegspunkt. Multivariates Testing wird dann nützlich, wenn du sehr viel Traffic hast und verstehen willst, wie Elemente zusammenwirken.

Warum A/B-Testing wichtig ist

Daten ersetzen Meinungen

Marketing-Teams verlieren enorm viel Zeit mit Diskussionen über subjektive Vorlieben. A/B-Testing ersetzt „Ich finde diese Überschrift besser” durch „Version B hat die Anmeldungen mit 95 % Konfidenz um 14 % gesteigert”. Dieser Wechsel verändert, wie Teams Entscheidungen treffen und Ressourcen einsetzen.

Kleine Verbesserungen summieren sich

Eine Steigerung der Conversion-Rate um 5 % mag für sich genommen bescheiden wirken. Wenn du jedoch mehrere 5-%-Verbesserungen über deinen gesamten Funnel stapelst, ist der Effekt erheblich:

  • E-Mail-Öffnungsrate: von 18 % auf 18,9 % (+5 %)
  • Click-Through-Rate: von 3,2 % auf 3,36 % (+5 %)
  • Landingpage-Conversion: von 8 % auf 8,4 % (+5 %)
  • Kombinierter Effekt: 12,6 % mehr Conversions beim selben Traffic

Über ein Jahr konsequentes Testen können sich diese inkrementellen Gewinne verdoppeln oder verdreifachen – ohne das Marketingbudget zu erhöhen.

Risiko reduzieren

Ein komplettes Website-Redesign oder eine neue E-Mail-Vorlage ohne Test auszurollen, ist ein Glücksspiel. Mit A/B-Tests validierst du Änderungen an einem kleinen Publikumssegment, bevor du sie breit ausrollst. Wenn die neue Version schlechter abschneidet, hast du den Schaden auf einen Bruchteil deiner Nutzer:innen begrenzt.

Organisationswissen aufbauen

Jeder Test – ob gewonnen oder verloren – erweitert das Verständnis deiner Organisation dafür, was Kund:innenverhalten antreibt. Mit der Zeit entsteht so ein sich selbst verstärkender Wissensvorsprung, den Wettbewerber:innen nicht leicht kopieren können.

Was du A/B-testen solltest

Die wirkungsvollsten Tests zielen auf Elemente, die zentrale Conversion-Metriken direkt beeinflussen. Hier eine Übersicht nach Kanal.

A/B-Testing im E-Mail-Marketing

E-Mail ist einer der einfachsten und lohnendsten Kanäle zum Testen, weil du volle Kontrolle über die Variablen hast und Ergebnisse schnell messen kannst.

Betreffzeilen sind der Einzel-Hebel mit der größten Wirkung im E-Mail-Marketing. Sie entscheiden, ob deine Nachricht überhaupt geöffnet wird.

Teste Varianten wie:

  • Länge: kurz (3–5 Wörter) vs. beschreibend (8–12 Wörter)
  • Personalisierung: mit Namen oder Unternehmen der Empfänger:innen vs. generisch
  • Dringlichkeit: „Letzte Chance” oder Deadlines vs. neutrale Formulierung
  • Neugier: offene Schleifen („Die eine Kennzahl, die die meisten Marketer ignorieren”) vs. direkte Nutzenaussagen
  • Emoji: mit vs. ohne
  • Konkrete Zahlen: „5 Strategien” vs. „Strategien” ohne Zahl

E-Mail-Content-Tests, die sich lohnen:

  • CTA-Platzierung: oberhalb des Falzes vs. nach dem Aufbau der Argumente
  • CTA-Text: „Jetzt starten” vs. „Kostenlose Testversion starten” vs. „Sehen, wie es funktioniert”
  • Layout: einspaltig vs. mehrspaltig
  • Bildeinsatz: Produktbilder vs. Lifestyle-Bilder vs. reiner Text
  • Textlänge: kurz und knackig vs. ausführlich und detailliert
  • Social Proof: mit Testimonials vs. mit Statistiken vs. ohne beides

Versandzeitpunkt-Optimierung kann die Öffnungsraten deutlich beeinflussen. Teste dieselbe E-Mail zu unterschiedlichen Tageszeiten oder Wochentagen, um zu ermitteln, wann dein spezifisches Publikum am aktivsten ist.

A/B-Testing auf Landingpages

Landingpages bieten die meisten Testvariablen und erzeugen oft die größten Conversion-Zuwächse.

Überschriften: Deine Überschrift ist das Erste, was Besucher:innen lesen, und hat den größten Einfluss auf die Absprungrate.

  • nutzenorientiert („Baue deine E-Mail-Liste 3× schneller auf”) vs. feature-orientiert („KI-gestützter E-Mail-Listen-Builder”)
  • Frageform („Verlierst du immer noch Abonnent:innen?”) vs. Aussageform
  • kurz und prägnant vs. lang und spezifisch

Call-to-Action-Buttons:

  • Buttonfarbe (teste Kontrast, nicht nur isolierte Farben)
  • Buttontext („Kostenlos registrieren” vs. „Jetzt wachsen” vs. „Mein Konto anlegen”)
  • Buttongröße und -platzierung
  • ein einzelner CTA vs. mehrere CTAs

Seitenlayout und Design:

  • Langform- vs. Kurzform-Seiten
  • Video above the fold vs. statisches Bild
  • Platzierung und Format von Testimonials
  • Formularlänge (weniger Felder vs. mehr Qualifizierung)
  • Trust-Badges und Sicherheitssiegel

Preisdarstellung:

  • Monats- vs. Jahrespreise zuerst anzeigen
  • Kennzeichnung „Am beliebtesten”
  • Drei- vs. Zwei-Stufen-Preismodell

A/B-Testing von Anzeigen

Plattformen für bezahlte Werbung wie Google Ads und Meta Ads haben integriertes A/B-Testing – eine saubere Methodik ist trotzdem entscheidend.

  • Anzeigentext: verschiedene Value Propositions, emotionale vs. rationale Ansprache
  • Überschriften: unterschiedliche Winkel für dieselbe Keyword-Intention
  • Kreativ-Assets: verschiedene Bilder, Videos oder Grafikstile
  • Zielgruppensegmente: dieselbe Anzeige in unterschiedlichen Targeting-Kriterien
  • Landingpage-Ziele: Anzeigentraffic auf verschiedene Seiten leiten

Testing von CTAs und Conversion-Elementen

Über einzelne Kanäle hinaus solltest du die Conversion-Elemente testen, die überall in deinem Marketing auftauchen:

  • Formularlänge: Jedes zusätzliche Feld senkt die Abschlussrate, steigert aber die Lead-Qualität.
  • Social-Proof-Format: Sterne-Bewertungen vs. geschriebene Testimonials vs. Kund:innenlogos
  • Dringlichkeits-Elemente: Countdown-Timer, Hinweise auf begrenzte Verfügbarkeit
  • Garantie-Messaging: Geld-zurück-Garantien, Bedingungen für Testversionen
  • Navigation: mit vs. ohne Navigation auf Conversion-Seiten

Wie du einen A/B-Test durchführst: Schritt für Schritt

Schritt 1: Ziel und Kennzahl festlegen

Beginne mit genau einer Kennzahl. Wer mehrere Metriken gleichzeitig optimieren will, bekommt zwangsläufig mehrdeutige Ergebnisse.

Gute Beispiele:

  • „Die E-Mail-Öffnungsrate von 22 % auf 25 % steigern”
  • „Die Conversion-Rate der Landingpage von 3,5 % auf 4,5 % verbessern”
  • „Die Warenkorbabbruchrate von 68 % auf 62 % senken”

Schritt 2: Hypothese formulieren

Eine starke Hypothese hat drei Bestandteile:

„Wenn wir [Änderung] umsetzen, wird [Kennzahl] sich [verbessern/verschlechtern], weil [Begründung].”

Beispiel: „Wenn wir unser Anmeldeformular von 6 auf 3 Felder kürzen, steigt die Abschlussrate um mindestens 15 %, weil weniger Reibung den wahrgenommenen Aufwand reduziert.”

Die Begründung zählt, weil sie Tests selbst dann zu Lern-Gelegenheiten macht, wenn die Hypothese falsch ist.

Schritt 3: Benötigte Stichprobengröße berechnen

Einen Test zu starten, ohne die benötigte Stichprobengröße zu kennen, ist einer der häufigsten Fehler. Du brauchst genug Daten, damit das Ergebnis statistisch aussagekräftig ist.

Die erforderliche Stichprobengröße hängt von drei Faktoren ab:

  1. Basis-Conversion-Rate: deine aktuelle Performance
  2. Minimum Detectable Effect (MDE): die kleinste Verbesserung, die dich noch interessiert
  3. Teststärke: die Wahrscheinlichkeit, einen echten Effekt zu erkennen (typisch 80 %)
  4. Signifikanzniveau: deine Toleranz für Falschpositive (typisch 5 %, bzw. p < 0,05)

Beispielrechnung:

Angenommen, deine Landingpage konvertiert bei 5 % (Baseline) und du willst eine relative Verbesserung von 20 % (auf 6 %) erkennen. Bei 80 % Power und 95 % Signifikanz:

  • Erforderliche Stichprobe pro Variante: rund 3.600 Besucher:innen
  • Gesamte benötigte Stichprobe: 7.200 Besucher:innen

Die Formel verwendet folgende Näherung:

n = (Z_alpha/2 + Z_beta)^2 * [p1(1-p1) + p2(1-p2)] / (p2 - p1)^2

Dabei gilt:

  • Z_alpha/2 = 1,96 (für 95 % Konfidenz)
  • Z_beta = 0,84 (für 80 % Power)
  • p1 = 0,05 (Baseline-Rate)
  • p2 = 0,06 (erwartete Rate nach Verbesserung)

Eingesetzt:

n = (1,96 + 0,84)^2 * [0,05(0,95) + 0,06(0,94)] / (0,06 - 0,05)^2
n = (2,80)^2 * [0,0475 + 0,0564] / (0,01)^2
n = 7,84 * 0,1039 / 0,0001
n ≈ 8.146 pro Variante

In der Praxis nutzen die meisten Marketer einen Online-Rechner für Stichprobengrößen oder den, der in ihrem Test-Tool eingebaut ist. Kernbotschaft: Kleinere Effekte brauchen deutlich größere Stichproben, um zuverlässig erkannt zu werden.

Schritt 4: Varianten erstellen

Bleib diszipliniert:

  • Ändere nur ein Element pro Test. Wenn du gleichzeitig die Überschrift und die Buttonfarbe änderst, lässt sich das Ergebnis keiner Änderung eindeutig zuschreiben.
  • Sorge dafür, dass die Änderung bedeutsam ist. „Buy now” vs. „Buy Now” (Großschreibung) wird kaum messbare Ergebnisse liefern. Teste wirklich unterschiedliche Ansätze.
  • Dokumentiere exakt, was geändert wurde, damit die Ergebnisse reproduzierbar sind.

Schritt 5: Publikum randomisieren und aufteilen

Saubere Randomisierung ist entscheidend. Jede:r Besucher:in oder Empfänger:in sollte die gleiche Wahrscheinlichkeit haben, eine der beiden Versionen zu sehen. Die meisten Test-Tools erledigen das automatisch – prüfe aber, dass:

  • die Aufteilung wirklich zufällig ist (nicht nach Geografie, Endgerät oder Ankunftszeit)
  • jede:r Nutzer:in durchgängig dieselbe Version sieht (kein Springen zwischen Versionen)
  • deine Gruppen groß genug sind, um statistisch repräsentativ zu sein

Schritt 6: Den Test vollständig durchlaufen lassen

Hier kommt es auf Disziplin an. Schau nicht ständig auf die Zwischenergebnisse und brich den Test nicht frühzeitig ab, nur weil eine Version gerade vorne liegt. Frühe Ergebnisse sind verrauscht und unzuverlässig.

Gängige Regeln:

  • Lass den Test laufen, bis deine vorab berechnete Stichprobengröße erreicht ist.
  • Lass ihn mindestens einen vollständigen Geschäftszyklus laufen (typisch 1–2 Wochen für Web, ein kompletter Versand bei E-Mail).
  • Ändere während des Tests nichts.

Schritt 7: Ergebnisse analysieren und statistische Signifikanz bestimmen

Ein Ergebnis ist statistisch signifikant, wenn die Wahrscheinlichkeit unter 5 % liegt, dass der beobachtete Unterschied durch Zufall entstanden ist (p-Wert < 0,05).

Beispiel: Dein Test zeigt, dass Version B mit 6,2 % konvertiert, Version A mit 5,0 %, bei einem p-Wert von 0,03. Das heißt: Es gibt nur eine 3-%-Chance, dass dieser Unterschied von 1,2 Prozentpunkten auf Zufall beruht. Du kannst Version B guten Gewissens ausrollen.

Liegt der p-Wert dagegen bei 0,15, ist der beobachtete Unterschied nicht zuverlässig genug, um darauf zu reagieren – auch wenn Version B „gewonnen” hat. Du brauchst mehr Daten oder einen größeren Effekt.

Schritt 8: Umsetzen und weiterlernen

Rolle die Gewinnerversion aus. Dokumentiere Hypothese, was getestet wurde, Ergebnis und Konfidenzniveau. Dann geht’s zum nächsten Test.

Die besten Testing-Programme pflegen einen Backlog von Testideen, priorisiert nach potenziellem Impact und Umsetzungsaufwand.

Statistische Signifikanz: ein genauerer Blick

Konfidenzintervalle verstehen

Verlass dich nicht nur auf p-Werte, sondern schau dir auch Konfidenzintervalle an. Ein 95-%-Konfidenzintervall zeigt dir den Bereich, in dem die wahre Conversion-Rate wahrscheinlich liegt.

Zeigt Version B eine Conversion-Rate von 6,2 % mit einem 95-%-KI von [5,4 %; 7,0 %] und Version A 5,0 % mit einem 95-%-KI von [4,3 %; 5,7 %], deuten die überlappenden Bereiche darauf hin, dass der Unterschied weniger klar ist, als die Punktschätzer vermuten lassen.

Häufige statistische Fehler

  • Vorzeitiges Reinschauen: Wer Ergebnisse mehrfach prüft, bläht die Rate der Falschpositiven auf. Prüfst du einen Test fünfmal während der Laufzeit, kann dein effektives Signifikanzniveau bei 15–25 % statt bei 5 % liegen.
  • Zu früh abbrechen: Einen Test in dem Moment zu beenden, in dem eine Version Signifikanz erreicht, erwischt oft nur Rauschen – kein Signal.
  • Stichprobenanforderungen ignorieren: Einen Test mit 200 Besucher:innen zu fahren und einen Gewinner auszurufen, ist unzuverlässig, egal was die Zahlen zeigen.
  • Zu viele Varianten testen: Ein A/B/C/D/E-Test splittet die Stichprobe in fünf Teile und schwächt die Teststärke drastisch.
  • Survivorship-Bias im Reporting: Nur Gewinnertests zu teilen, zeichnet ein verzerrtes Bild der Testing-Effektivität.

Bayesianisch vs. frequentistisch

Klassisches A/B-Testing nutzt frequentistische Statistik (p-Werte und Konfidenzintervalle). Einige moderne Tools setzen auf bayesianische Methoden, die Ergebnisse als Wahrscheinlichkeiten ausdrücken („es gibt eine 94-%-Wahrscheinlichkeit, dass B besser ist als A”).

Bayesianische Methoden bieten einige praktische Vorteile:

  • Die Ergebnisse sind für Nicht-Statistiker:innen leichter zu interpretieren.
  • Du kannst Ergebnisse laufend beobachten, ohne Fehlerraten aufzublähen.
  • Sie gehen eleganter mit kleinen Stichproben um.

Beide Ansätze sind zulässig. Wichtig ist, dass du einen konsequent verwendest und seine Annahmen verstehst.

A/B-Testing-Tools im Vergleich

Welches Tool passt, hängt davon ab, was du testest und wie groß dein Setup ist.

Brevo

Am besten für: E-Mail-A/B-Testing und kanalübergreifende Kampagnenoptimierung

Brevo bietet ein solides, integriertes A/B-Testing für E-Mail-Kampagnen und macht Split-Testing auch für kleinere Marketing-Teams zugänglich. Wichtige Funktionen:

  • Betreffzeilen-Testing: bis zu vier Betreffzeilen-Varianten testen und die Gewinnerversion automatisch an die restliche Liste senden
  • Content-Testing: komplett unterschiedliche E-Mail-Layouts und Texte vergleichen
  • Versandzeitoptimierung: KI-gestützte Vorhersage des optimalen Versandzeitpunkts je Empfänger:in
  • Flexible Gewinner-Kriterien: Gewinnermetrik wählen (Öffnungen, Klicks oder Umsatz) und Testdauer festlegen
  • Automatisierter Gewinnerversand: einmal einstellen, fertig. Brevo sendet die Gewinnerversion nach Ablauf des Tests automatisch an den Rest der Liste.

Der Vorteil von Brevo: A/B-Testing ist nativ in dieselbe Plattform integriert, die du bereits für E-Mail, SMS, WhatsApp und Marketing-Automatisierung nutzt. Es fallen keine Zusatzkosten oder Drittanbieter-Integrationen an, und die Ergebnisse fließen direkt in deine Kampagnenauswertung ein.

Preise: A/B-Testing ist ab dem Business-Plan verfügbar.

Optimizely

Am besten für: Enterprise-Experimente für Web und Produkt

Optimizely ist der Branchenstandard für Website- und Produkt-A/B-Testing in großem Maßstab. Unterstützt Feature-Flags, Server-seitiges Testing und ausgefeiltes Zielgruppen-Targeting. Die Plattform bietet Full-Stack-Experimente – also Tests über Web, Mobile und Backend hinweg.

Preise: individuelles Enterprise-Pricing, in der Regel ab mehreren Tausend US-Dollar pro Monat.

VWO (Visual Website Optimizer)

Am besten für: Website- und Conversion-Optimierung im Mittelstand

VWO bietet einen visuellen Editor zum Erstellen von Testvarianten ohne Code sowie Heatmaps, Session-Aufzeichnungen und Umfragen. Eine gute Balance aus Bedienkomfort und analytischer Tiefe.

Preise: Pläne starten bei rund 199 USD/Monat für grundlegendes Testing.

Google Analytics / Google Tag Manager

Am besten für: einfaches Website-Testing mit kleinem Budget

Google Optimize wurde 2023 eingestellt, aber du kannst mit Google Analytics 4 in Kombination mit dem Google Tag Manager weiterhin einfache A/B-Tests durchführen. Der Aufbau erfordert mehr technischen Aufwand als ein dediziertes Tool, ist aber kostenlos und integriert sich nahtlos in deine Analytics.

Preise: kostenlos.

Unbounce

Am besten für: A/B-Testing von Landingpages

Unbounce kombiniert einen Landingpage-Builder mit integriertem A/B-Testing – so erstellst und testest du Landingpage-Varianten mühelos. Die Smart-Traffic-Funktion nutzt KI, um Besucher:innen automatisch zur Variante zu leiten, die für ihr Profil am wahrscheinlichsten konvertiert.

Preise: Pläne ab 74 USD/Monat, A/B-Testing in höheren Stufen enthalten.

Tools im Überblick

ToolStärkster KanalA/B-Testing-KomfortKI-FeaturesEinstiegspreis
BrevoE-Mail, SMS, Multi-ChannelSehr einfachVersandzeit-KI, Auto-GewinnerIm Business-Plan enthalten
OptimizelyWeb, ProduktMittelPredictive AnalyticsEnterprise-Pricing
VWOWeb, LandingpagesEinfach (visueller Editor)KI-gestützte Insights~199 USD/Monat
GA4 + GTMWebTechnischeinfache ML-Insightskostenlos
UnbounceLandingpagesEinfachSmart-Traffic-Routing74 USD/Monat

Echte A/B-Testing-Beispiele

Beispiel 1: Betreffzeilen-Test

Unternehmen: ein E-Commerce-Shop für Outdoor-Ausrüstung

Test: zwei Betreffzeilen-Ansätze für eine Saison-Sale-E-Mail

  • Version A: „Frühjahrs-Sale: 30 % Rabatt auf alle Wander-Ausrüstung”
  • Version B: „Dein nächstes Abenteuer beginnt hier (30 % Rabatt inside)”

Ergebnisse:

  • Version A: 24,3 % Öffnungsrate, 4,1 % Klickrate
  • Version B: 28,7 % Öffnungsrate, 3,8 % Klickrate
  • Gewinner: Version B bei Öffnungen, Version A bei Klicks

Erkenntnis: Neugierig machende Betreffzeilen steigerten die Öffnungen, zogen aber weniger kaufbereiten Traffic. Das Team entschied sich, auf die Klickrate zu optimieren, weil sie stärker mit dem Umsatz korrelierte.

Beispiel 2: CTA-Button auf einer Landingpage

Unternehmen: ein SaaS-Produkt mit kostenloser Testversion

Test: CTA-Text auf der Preisseite

  • Version A: „Kostenlose Testversion starten”
  • Version B: „Kostenlose Testversion starten – keine Kreditkarte erforderlich”

Ergebnisse:

  • Version A: 3,8 % Conversion-Rate
  • Version B: 5,1 % Conversion-Rate (34 % Verbesserung, p = 0,008)

Erkenntnis: Das wahrgenommene Risiko im CTA-Text zu reduzieren, hat die Anmeldungen signifikant gesteigert. Der Einwand „Muss ich meine Kreditkarte angeben?” war ein großer Reibungspunkt, obwohl die Seite das bereits in kleinerer Schrift erwähnte.

Beispiel 3: Produktempfehlungs-E-Mails mit Tajo

Unternehmen: ein Shopify-Shop, der Tajo nutzt, um Kund:innen- und Bestelldaten mit Brevo zu synchronisieren

Test: zwei Ansätze für automatisierte Produktempfehlungs-E-Mails nach dem Erstkauf

  • Version A: generische „Das könnte dir auch gefallen”-Empfehlungen auf Kategoriebasis
  • Version B: personalisierte Empfehlungen, angetrieben von der durch Tajo synchronisierten Kaufhistorie und Segmentdaten in Brevo

Ergebnisse:

  • Version A: 2,1 % Klickrate, 0,8 % Kaufrate
  • Version B: 4,7 % Klickrate, 2,3 % Kaufrate (187 % mehr Käufe)

Erkenntnis: Wenn Customer Intelligence aus Tajo Brevos E-Mail-Engine mit reichhaltigeren Verhaltensdaten füttert, steigt die Relevanz der Empfehlungen deutlich. Entscheidend war, nicht nur Bestelldaten, sondern auch Browsing-Events und Produkt-Affinity-Scores über Tajos Echtzeit-Datenpipeline zu synchronisieren.

Beispiel 4: Anzeigenkreativ-Test

Unternehmen: ein B2B-Softwareunternehmen mit LinkedIn-Anzeigen

Test: zwei Kreativansätze für dieselbe Zielgruppe

  • Version A: Produkt-Screenshot mit Feature-Hinweisen
  • Version B: Kund:innen-Testimonial-Zitat mit Porträtfoto

Ergebnisse:

  • Version A: 0,38 % CTR, 42 USD pro Lead
  • Version B: 0,61 % CTR, 28 USD pro Lead (33 % niedrigere CPL)

Erkenntnis: Social Proof schlug Produktfeatures bei kalten Zielgruppen auf LinkedIn. Anschließend testete das Team verschiedene Testimonial-Formate und fand heraus, dass konkrete Kennzahlen im Zitat („12 Stunden pro Woche gespart”) generelles Lob übertrafen.

Häufige Fehler beim A/B-Testing

1. Testen ohne Hypothese

Zufällige Tests ohne klare Hypothese erzeugen Daten, aber kein Wissen. Starte immer mit einer begründeten Vermutung, warum eine Änderung wirken könnte. Selbst wenn deine Hypothese falsch ist, hilft dir die Argumentation, besser zu lernen und bessere Tests zu designen.

2. Tests zu früh beenden

Die Versuchung, nach ein paar Hundert Datenpunkten einen Gewinner auszurufen, ist stark – vor allem, wenn die ersten Ergebnisse dramatisch aussehen. Widersteh ihr. Frühe Ergebnisse regressieren mit mehr Daten in Richtung Mittelwert. Verpflichte dich vor dem Testbeginn auf deine berechnete Stichprobengröße.

3. Triviale Änderungen testen

Einen Button von #FF0000 auf #FF1100 zu ändern, erzeugt keine messbaren Ergebnisse. Fokussiere dich auf Änderungen, die reale Bedenken, Einwände oder Verhaltensmuster von Nutzer:innen adressieren. Die besten Tests ändern Botschaft, Angebot oder User Flow – keine kosmetischen Details.

4. Unterschiede zwischen Segmenten ignorieren

Ein „kein Unterschied”-Ergebnis insgesamt kann deutliche Unterschiede innerhalb von Segmenten verschleiern. Version B funktioniert vielleicht hervorragend für Mobilnutzer:innen, aber schlechter am Desktop. Analysiere Ergebnisse immer auch nach Schlüsselsegmenten (Gerät, Quelle, neu vs. wiederkehrend), sobald die Stichproben es zulassen.

5. Externe Faktoren außer Acht lassen

Ein Test, der während eines Feiertagssales läuft, liefert andere Ergebnisse als einer in einer normalen Woche. Habe saisonale Effekte, Promo-Kalender, Nachrichten-Events und andere externe Faktoren im Blick, die Ergebnisse verzerren könnten.

6. Zu viele Dinge gleichzeitig testen

Änderst du Überschrift, Hero-Bild, CTA-Text und Seitenlayout gleichzeitig, sagt dir ein positives Ergebnis zwar, dass etwas gewirkt hat – aber nicht, was. Priorisiere Testideen nach potenziellem Impact und teste zuerst die hebelstärksten Elemente.

7. Keine Testing-Kultur aufbauen

A/B-Testing scheitert, wenn es als einmaliges Projekt statt als laufende Praxis behandelt wird. Die erfolgreichsten Unternehmen testen kontinuierlich, pflegen ein gemeinsames Ergebnis-Repository und machen Testing zum Standard-Bestandteil jedes Kampagnenstarts.

Ein A/B-Testing-Programm aufbauen

Einen Test-Backlog aufbauen

Pflege eine priorisierte Liste von Testideen mit dem ICE-Framework:

  • Impact: Wie stark könnte dieser Test die Zielmetrik verbessern? (1–10)
  • Confidence: Wie sicher bist du, dass dieser Test ein aussagekräftiges Ergebnis liefert? (1–10)
  • Ease: Wie einfach lässt sich dieser Test umsetzen? (1–10)

Multipliziere die drei Werte, um Tests zu ranken. Ein Test mit hohem Impact, hoher Confidence und einfacher Umsetzung (wie ein Betreffzeilen-Test in Brevo) sollte vor einem potenziell hohen, aber komplexen Test (wie einem vollständigen Checkout-Redesign) priorisiert werden.

Eine Testkadenz etablieren

Ziel ist eine gleichmäßige Frequenz:

  • E-Mail-Tests: bei jedem großen Kampagnenversand. Brevo macht das besonders einfach, weil die A/B-Funktionalität direkt im Kampagnen-Workflow integriert ist.
  • Landingpage-Tests: laufend, je nach Traffic 2–4 Tests pro Monat.
  • Ad-Tests: 1–2 Kreativtests pro Anzeigensatz pro Monat.

Ergebnisse dokumentieren und teilen

Lege ein einfaches Test-Logbuch an mit:

  • Testname und Datum
  • Hypothese
  • Was geändert wurde
  • Ergebnisse (inklusive Konfidenzniveau)
  • Zentrale Erkenntnis
  • Nächster Schritt

Diese Dokumentation wird mit der Zeit zu einem deiner wertvollsten Marketing-Assets.

Häufig gestellte Fragen

Wie lange sollte ein A/B-Test laufen?

So lange, bis du die erforderliche Stichprobengröße erreicht hast – mindestens aber einen vollständigen Geschäftszyklus (typisch 7–14 Tage bei Web-Tests). Bei E-Mail-A/B-Tests in Tools wie Brevo übernimmt die Plattform das Timing automatisch. Du legst die Testdauer fest (üblich 1–4 Stunden für Betreffzeilen-Tests), und die Gewinnerversion geht an die übrigen Empfänger:innen.

Was ist eine gute Stichprobengröße für A/B-Tests?

Das hängt von deiner Baseline-Conversion-Rate und dem Minimaleffekt ab, den du erkennen willst. Als Faustregel: Um eine relative Verbesserung von 10 % auf einer Baseline von 5 % mit 95 % Konfidenz und 80 % Power zu erkennen, brauchst du rund 15.000 Besucher:innen pro Variante. Für E-Mail-Tests liefern Listen mit 1.000+ Abonnent:innen pro Variante in der Regel verlässliche Ergebnisse bei Öffnungsraten-Tests.

Kann ich mehrere A/B-Tests parallel fahren?

Ja – solange sich die Tests nicht gegenseitig beeinflussen. Einen Betreffzeilen-Test und einen Landingpage-Headline-Test gleichzeitig zu fahren, ist in Ordnung, weil sie unterschiedliche Stellen des Funnels betreffen. Zwei Tests gleichzeitig auf derselben Landingpage können Wechselwirkungen erzeugen, die die Ergebnisse verfälschen.

Was ist ein statistisch signifikantes Ergebnis?

Ein Ergebnis, bei dem die Wahrscheinlichkeit, dass der beobachtete Unterschied durch Zufall entstanden ist, unter deiner Signifikanzschwelle liegt – typisch 5 % (p < 0,05). Das bedeutet, du kannst mindestens 95 % sicher sein, dass der Unterschied real ist und nicht zufällig.

Wie teste ich mit einem kleinen Publikum?

Fokussiere dich bei kleinen Zielgruppen auf Elemente mit dem größten potenziellen Effekt. Betreffzeilen-Tests zeigen auch bei kleineren Listen oft aussagekräftige Unterschiede, weil Öffnungsraten-Differenzen tendenziell größer sind. Alternativ kannst du die Testlaufzeit verlängern oder bayesianische Methoden nutzen, die eleganter mit kleinen Stichproben umgehen.

Soll ich immer die statistisch signifikante Gewinnerversion nehmen?

Meistens ja – aber schau dir das Gesamtbild an. Gewinnt Version B bei Klicks, Version A aber beim Umsatz, hängt der „Gewinner” von deinem Geschäftsziel ab. Beachte auch die praktische Signifikanz: Eine statistisch signifikante Verbesserung um 0,1 % ist den Umsetzungsaufwand vielleicht nicht wert.

Was ist der Unterschied zwischen A/B-Testing und Personalisierung?

A/B-Testing ermittelt, welche Version für dein gesamtes Publikum (oder ein Segment) am besten performt. Personalisierung liefert unterschiedlichen Nutzer:innen unterschiedlichen Content auf Basis ihrer Merkmale oder ihres Verhaltens. Beides ergänzt sich: Nutze A/B-Testing, um herauszufinden, welche Personalisierungsstrategien am effektivsten sind.

Heute starten

Du brauchst keine riesige Testing-Infrastruktur, um loszulegen. Beginne im Kanal, in dem du die meiste Kontrolle und die schnellste Rückmeldung hast – für die meisten Unternehmen ist das E-Mail.

Wenn du Brevo nutzt, richtest du deinen ersten A/B-Test in unter fünf Minuten direkt im Kampagnen-Workflow ein. Teste eine Betreffzeile, lass die Plattform den Gewinner automatisch auswählen und sieh dir die Ergebnisse an. Dieser eine Test lehrt dich mehr über dein Publikum als wochenlange interne Diskussionen.

Für E-Commerce-Unternehmen ist es eine der ROI-stärksten Teststrategien, die Shopdaten über Tajo anzubinden und A/B-Tests auf Produktempfehlungs-E-Mails in Brevo zu fahren. Wenn deine E-Mails mit echten Kaufdaten gespeist werden, hast du weit bedeutsamere Elemente zum Testen als generischer Content je bieten könnte.

Die Unternehmen, die gewinnen, sind nicht die mit den besten Bauchgefühlen. Es sind die, die am meisten testen, am schnellsten lernen und ihre Vorteile über die Zeit kumulieren. Starte heute deinen ersten Test.

Verwandte Artikel

Frequently Asked Questions

Was ist A/B-Testing im E-Mail-Marketing?
Beim A/B-Testing (Split-Testing) werden zwei Versionen einer E-Mail an kleine Segmente deiner Liste gesendet, um zu ermitteln, welche besser performt. Die Gewinnerversion geht anschließend an die übrigen Abonnent:innen.
Was sollte ich in E-Mails A/B-testen?
Starte mit Betreffzeilen (größter Hebel), dann Versandzeiten, CTAs, E-Mail-Design/Layout, Personalisierung und Textlänge. Teste immer nur eine Variable auf einmal, damit die Ergebnisse eindeutig sind.
Wie lange sollte ein A/B-Test laufen?
Bei E-Mails testest du 2–4 Stunden lang mit 10–20 % deiner Liste, bevor du die Gewinnerversion verschickst. Landingpage-Tests sollten mindestens 1–2 Wochen laufen oder bis du statistische Signifikanz (95 % Konfidenz) erreichst.
Kostenlos mit Brevo starten