A/B-Tests im digitalen Marketing
Beim A/B-Testing werden zwei Versionen eines digitalen Assets erstellt, um zu sehen, auf welche Version die Benutzer besser reagieren. Beispiele für Assets sind Landingpages, Display-Ads, Marketing-E-Mails und Social-Media-Beiträge. Bei einem A/B-Test erhält die Hälfte der Zielgruppe automatisch „Version A“ und die andere Hälfte „Version B“. Die Leistung jeder Version wird anhand von Konversionsratenzielen bewertet, wie beispielsweise dem Prozentsatz der Personen, die auf einen Link klicken, ein Formular ausfüllen oder einen Kauf tätigen.
A/B-Tests sind keine neue Idee, die mit dem Aufkommen des digitalen Marketings entstanden ist. Früher waren Postkarten das Mittel der Wahl beim „Splitting“ oder „Bucketing“, um herauszufinden, welches Angebot am besten funktionierte. Digitale Möglichkeiten bauen auf der gleichen Idee auf, ermöglichen aber spezifischere, zuverlässigere und schnellere Testergebnisse.
Wenn du dein Unternehmen ausbauen möchtest, kann es schwierig sein, die Marketingressourcen zu identifizieren, die bei deiner Zielgruppe am besten ankommen. Mit A/B-Tests – zusammen mit anderen Strategien zur Konversionsoptimierung – kannst du verschiedene Methoden ausprobieren, um deine Inhalte zu verbessern, die besten Kundenerlebnisse zu bieten und deine Konversionsziele schneller zu erreichen. Dieser Leitfaden für AB-Tests wird dir helfen, die Grundlagen zu lernen.
Definition von A/B-Testing: Was ist A/B-Testing?
A/B-Tests, auch bekannt als Split-Tests, erlauben es dir, zwei Versionen von etwas zu vergleichen, um zu erfahren, welche wirkungsvoller ist. Vereinfacht gesagt: Gefällt deinen Benutzern Version A oder Version B besser?
Das Konzept ist dem wissenschaftlichen Verfahren ähnlich. Wenn du herausfinden willst, was passiert, wenn du eine Kleinigkeit veränderst, musst du eine Situation schaffen, in der sich nur diese eine Kleinigkeit verändert.
Denke an die Experimente, die du in der Grundschule gemacht hast. Wenn du zwei Samen in zwei Tassen Erde gibst und eine in den Schrank und die andere ans Fenster stellst, wirst du unterschiedliche Ergebnisse beobachten. Diese Art von Versuchsaufbau nennt man A/B-Testing.
Geschichte der A/B-Tests
In den 1960er Jahren begannen Vermarkter zu erkennen, wie diese Art von Tests ihnen helfen kann, die Wirkung ihrer Werbung zu verstehen. Würde eine Fernseh- oder Radio-Ad mehr Kunden ansprechen? Sind Briefe oder Postkarten besser für das Direktmarketing geeignet?
Als das Internet in den 90er Jahren ein integraler Bestandteil der Geschäftswelt wurde, wurden A/B-Tests digital. Sobald digitale Marketingteams über technische Ressourcen verfügten, begannen sie, ihre Strategien in Echtzeit zu testen – und das in einem viel größeren Maßstab.
Was beinhaltet A/B-Testing?
Beim A/B-Testing werden digitale Lösungen eingesetzt, um verschiedene Elemente einer Marketingkampagne zu testen. Um mit A/B-Tests zu beginnen, musst du Folgendes haben:
- Eine zu testende Kampagne . Um einen A/B-Test für eine Marketingkampagne durchzuführen, benötigst du eine E-Mail, einen Newsletter, ein Ad, eine Landingpage oder ein anderes Medium, das bereits verwendet wird.
- Zu testende Elemente . Betrachte die verschiedenen Elemente deiner Kampagne und überlege, was du ändern könntest, um Kunden zum Handeln zu bewegen. Teste die Elemente unbedingt einzeln, um sicherzustellen, dass du die richtigen Ergebnisse erhältst.
- Definierte Ziele . Ziel deiner A/B-Tests sollte es sein, herauszufinden, welche Version deiner Kampagne bessere Ergebnisse für dein Unternehmen erzielt. Berücksichtige die verschiedenen Kennzahlen, die du erfassen kannst, wie Klicks, Registrierungen oder Käufe.
Wie sieht ein A/B-Test im digitalen Zeitalter aus?
Im Kern sind A/B-Tests im Marketing die gleichen wie immer. Du wählst den Faktor aus, den du überprüfen möchtest, zum Beispiel einen Blogbeitrag mit Bildern im Vergleich zum gleichen Beitrag ohne Bilder. Dann zeigst du den Besuchern zufällig einen Stil des Blogposts an, wobei du andere Faktoren kontrollierst. Du solltest außerdem so viele Daten wie möglich aufzeichnen –Bounce-Raten, Verweildauer auf der Seite und so weiter.
Du kannst sogar mehr als eine Variable auf einmal testen. Wenn du zum Beispiel die Schriftart sowie das Vorhandensein von Bildern bewerten möchtest, könntest du vier Seiten erstellen, von denen jede den Blogbeitrag wie folgt anzeigt:
- Arial mit Bildern
- Arial ohne Bilder
- Times New Roman mit Bildern
- Times New Roman ohne Bilder
Die Marketing-Software für A/B-Tests liefert die Daten von Experimenten wie diesem. Dann interpretiert jemand aus deinem Unternehmen die Ergebnisse und entscheidet, ob es für das Unternehmen Sinn macht, darauf zu reagieren – und wenn ja, wie.
Warum sind A/B-Tests wichtig?
A/B-Tests liefern dir die nötigen Daten, um das Maximum aus deinem Marketingbudget herauszuholen. Nehmen wir an, dein Chef hat dir ein Budget gegeben, um mit Google AdWords den Traffic auf deine Website zu steigern. Du richtest einen A/B-Test ein, der die Anzahl der Klicks für drei verschiedene Artikeltitel verfolgt. Du lässt den Test eine Woche lang laufen und stellst sicher, dass du an jedem Tag und zu jeder Zeit die gleiche Anzahl an Ads für jede Option hast.
Die Ergebnisse dieses Tests werden dir helfen herauszufinden, welcher Titel die meisten Klicks erhält. Du kannst diese Daten dann verwenden, um deine Marketingkampagne entsprechend zu gestalten und ihren Return on Investment (ROI) stärker zu verbessern, als wenn du einen Titel zufällig ausgewählt hättest.
Kleine Änderungen, große Verbesserungen
A/B-Tests ermöglichen es dir, die Auswirkungen von Änderungen zu bewerten, die relativ kostengünstig umzusetzen sind. Das Betreiben einer AdWords-Kampagne kann kostspielig sein, daher sollte jeder Aspekt so effektiv wie möglich sein.
Angenommen, du führst A/B-Tests hinsichtlich Schriftart, Textgröße, Menütitel, Links und Positionierung des benutzerdefinierten Registrierungsformulars auf deiner Homepage durch. Du testest jeweils zwei oder drei dieser Elemente gleichzeitig, damit nicht zu viele Unbekannte miteinander interagieren.
Wenn der Test abgeschlossen ist, stellst du fest, dass die Änderung der letzten drei Elemente deine Konversionsrate jeweils um 6 % erhöht. Dein Webdesigner setzt diese Änderungen in weniger als einer Stunde um, und wenn er fertig ist, hast du die Chance, 18 % mehr Umsatz zu machen als vorher.
Geringe Risiken, hohe Belohnungen
A/B-Tests sind nicht nur kosteneffizient, sondern auch zeiteffizient. Du testest zwei oder drei Elemente und bekommst deine Antwort. Dann kannst du einfach entscheiden, ob du eine Veränderung durchführen willst oder nicht. Wenn die realen Daten nicht mit deinen Testergebnissen übereinstimmen, ist es immer möglich, zu einer älteren Version zurückzukehren.
Den Traffic optimal nutzen
Wenn du A/B-Tests nutzt, um deine Website so effektiv wie möglich zu gestalten, kannst du mehr Konversionen pro Besucher erzielen. Je höher deine Konversionsrate ist, desto weniger Zeit und Geld musst du für Marketing aufwenden. Das liegt daran, dass theoretisch jeder, der deine Website besucht, mit höherer Wahrscheinlichkeit auch aktiv wird.
Denke daran, dass eine Verbesserung deiner Website deine Konversionsrate sowohl für bezahlten als auch für unbezahlten Traffic steigern kann.

Steigere deine Konversionsrate durch strategische Tests und Experimente
Entdecke die Grundlagen zur Optimierung der Konversionsrate in unserem Leitfaden, der wesentliche Strategien für effektive Tests und Experimente bietet, um die Leistung deiner Webseite zu verbessern.
Wofür eignet sich A/B-Testing?
Wenn es um kundenorientierte Inhalte geht, gibt es sehr vieles, das du mit A/B-Tests auswerten kannst.
Zu den häufigsten Zielen gehören:
- E-Mail-Kampagnen
- Einzelne E-Mails
- Multimedia-Marketingstrategien
- Kostenpflichtige Internet-Werbung
- Newsletter
- Website-Design
In jeder Kategorie kannst du A/B-Tests für eine beliebige Anzahl von Variablen durchführen. Wenn du zum Beispiel das Design deiner Seite testest, kannst du verschiedene Optionen ausprobieren, wie beispielsweise Folgendes:
- Farbschema
- Layout
- Anzahl und Art der Bilder
- Überschriften und Unterüberschriften
- Produktpreise
- Sonderangebote
- Design von Call-to-Action-Schaltflächen
- Video-E-Mails vs. Nicht-Video-E-Mails
Im Grunde genommen kann fast jedes Stil- oder Inhaltselement in einem kundenorientierten Element getestet werden.
Wie führst du A/B-Tests durch?
Letztendlich ist der A/B-Test nichts anderes als das wissenschaftliche Verfahren. Um optimale Ergebnisse zu erzielen, musst du es wissenschaftlich angehen. Genau wie bei der Laborversion des wissenschaftlichen Verfahrens beginnt der A/B-Test mit der Auswahl dessen, was getestet werden soll. Der ganze Prozess besteht aus mehreren Schritten:
1. Ein Problem identifizieren
Achte darauf, dass du ein spezifisches Problem identifizierst. „Nicht genug Konversionen“ ist zum Beispiel zu allgemein. Es gibt zu viele Faktoren, die darüber entscheiden, ob aus einem Website-Besucher ein Kunde wird oder ob ein E-Mail-Empfänger sich auf deine Seite durchklickt. Du musst wissen, warum deine Inhalte nicht zu Konversionen führen.
Beispiel : Du arbeitest für einen Damenbekleidungshändler, der viele Online-Verkäufe hat, aber nur sehr wenige dieser Verkäufe stammen aus seinen E-Mail-Kampagnen. Du siehst dir deine Analysedaten an und stellst fest, dass ein hoher Prozentsatz der Benutzer deine E-Mails mit Sonderangeboten öffnet und sie liest, aber nur wenige tatsächlich einen Artikel kaufen.
2. Benutzerdaten analysieren
Technisch gesehen könntest du A/B-Tests für alles durchführen, was deine Kunden sehen, wenn sie deine E-Mails öffnen, aber das würde eine Menge Zeit in Anspruch nehmen. Es gibt viele Design- und Inhaltselemente, auf die sie stoßen, die nicht relevant sind, also musst du herausfinden, auf welches Element du abzielen möchtest.
Beispiel : Die Benutzer öffnen deine E-Mails, also ist es nicht falsch, wie du deine Betreffzeilen schreibst. Sie verbringen auch Zeit damit, sie zu lesen, also gibt es nichts, was sie sofort wegklicken lässt. Da viele der Benutzer, die deine Website von anderen Seiten aus finden, letztendlich zu Kunden werden, kannst du davon ausgehen, dass auch die Präsentation deiner Produkte nichts zu wünschen übrig lässt. Das deutet darauf hin, dass die Benutzer deine E-Mails zwar ansprechend finden, aber irgendwie den Faden verlieren, wenn sie sich auf deine Seite durchklicken wollen.
3. Eine Hypothese zum Testen entwickeln
Jetzt schränkst du die Auswahl wirklich ein. Dein nächster Schritt ist zu entscheiden, was genau du testen willst und wie du es testen willst. Schränke deine Unbekannten auf eine oder zwei ein, zumindest für den Anfang. Dann kannst du herausfinden, wie du das Problem lösen kannst, indem du ein oder zwei Elemente änderst.
Beispiel : Du bemerkst, dass die Schaltfläche, die die Benutzer zu deinem Online-Shop führt, ganz unten in der E-Mail versteckt ist, unterhalb der Falzlinie. Du vermutest, dass mehr Empfänger auf deinen Shop gelangen, wenn du die Schaltfläche oben auf dem Bildschirm platzierst.
4. Den Hypothesentest durchführen
Entwickle eine neue Version des Testelements, die deine Idee umsetzt. Dann führe einen A/B-Test zwischen dieser Version und deiner aktuellen Seite mit deiner Zielgruppe durch.
Beispiel : Du erstellst eine Version der E-Mail, bei der die Schaltfläche oberhalb der Falzlinie positioniert ist. Du änderst nicht das Design, sondern nur die Positionierung. Du entscheidest dich, den Test 24 Stunden laufen zu lassen, also stellst du diese Zeit als Parameter ein und startest den Test.
5. Die Daten analysieren
Sobald der Test beendet ist, sieh dir die Ergebnisse an und prüfe, ob dein neues E-Mail-Design zu merklichen Veränderungen geführt hat. Wenn nicht, teste ein neues Element.
Beispiel : Deine neue E-Mail hat die Konversionen leicht erhöht, aber dein Chef möchte wissen, ob etwas anderes besser abschneiden könnte. Da deine Variable die Positionierung der Schaltfläche war, entscheidest du dich, sie an zwei anderen Stellen zu platzieren.
6. Neue Herausforderer für den Champion finden
In der Welt der A/B-Tests werden manchmal die Begriffe „Champion“ und „Herausforderer“ verwendet, um die aktuell beste Option und neue Möglichkeiten zu bezeichnen. Wenn zwei oder mehr Optionen konkurrieren und eine deutlich erfolgreicher ist, wird sie als Champion bezeichnet. Du kannst diesen Sieger dann gegen andere Optionen testen, die Herausforderer genannt werden. Dieser Test könnte dir einen neuen Champion liefern, oder er könnte offenbaren, dass der ursprüngliche Champion der Beste ist.
Beispiel : Du hast zwei Versionen einer Landingpage einem A/B-Test unterzogen und den Champion unter ihnen gefunden, aber es gibt auch eine dritte Version der Seite, die du mit dem Champion aus deinem ersten Test vergleichen möchtest. Die dritte Version wird der neue Herausforderer, der gegen den bisherigen Champion antritt.
Wenn du alle 6 Schritte durchlaufen hast, kannst du entscheiden, ob die Verbesserung signifikant genug ist, um den Test zu beenden und die notwendigen Änderungen vorzunehmen. Oder du kannst einen weiteren A/B-Test durchführen, um die Wirkung eines anderen Elements zu bewerten, etwa die Größe der Schaltfläche oder ihr Farbschema.
Tipps für A/B-Tester
Hier sind einige Hinweise, die dir helfen, deine A/B-Tests so nützlich wie möglich zu gestalten.
Verwende repräsentative Stichproben deiner Benutzer
Jeder Wissenschaftler wird dir sagen, dass du bei der Durchführung eines Experiments sicherstellen musst, dass die Gruppen so ähnlich wie möglich sind. Wenn du eine Website testest, kannst du mehrere automatisierte Test-Tools verwenden, um sicherzustellen, dass jede Version einer zufällig ausgewählten Gruppe von Personen angezeigt wird.
Wenn du Material direkt an deine Kunden oder potenziellen Kunden versendest, musst du vergleichbare Listen manuell erstellen. Mache die Gruppen möglichst gleich groß und verteile die Empfänger gleichmäßig nach Geschlecht, Alter und Geographie (sofern du die Daten hast). So haben Variationen bei diesen Faktoren nur minimale Auswirkungen auf deine Ergebnisse.
Maximiere deine Stichprobengröße
Je mehr Benutzer du testest, desto zuverlässiger werden deine Ergebnisse sein. Das hängt mit einem Konzept zusammen, das Statistiker als „statistische Signifikanz“ bezeichnen.
Wenn das Ergebnis statistisch signifikant ist, ist es unwahrscheinlich, dass es durch Zufall entstanden ist. Wenn du zum Beispiel eine neue Version einer E-Mail an 50 Personen schickst und eine Kontrollversion an 50 weitere, bedeutet eine 5%ige Steigerung der Klickrate nur, dass fünf Personen besser auf deine neue Version reagiert haben. Der Unterschied ist so gering, dass er durch Zufall erklärt werden könnte – und wenn du den gleichen Test noch einmal durchführst, besteht eine gute Chance, dass du andere Ergebnisse bekommst. Mit anderen Worten, deine Ergebnisse waren nicht statistisch signifikant.
Wenn du in der Lage bist, denselben Satz E-Mails an Gruppen von 500 Personen zu senden, bedeutet eine Steigerung von 5 %, dass 50 Personen besser auf deinen neuen Stil reagiert haben, was viel wahrscheinlicher signifikant ist.
Häufige Fehler vermeiden
Es ist verlockend, eine Pop-up-Schaltfläche mit einer neuen Schriftart, einer neuen Textgröße, neuen Schaltflächengrößen und neuen Schaltflächenfarben zu erstellen. Aber je mehr neue Elemente du hinzufügst, desto verworrener werden deine Ergebnisse sein.
Um bei dem obigen Beispiel zu bleiben: Wenn dein neues Pop-up ein völlig anderes Design hat als das Original, wirst du wahrscheinlich Korrelationen sehen, die völlig zufällig sind. Vielleicht sieht es so aus, als ob die große lila „Zur Kasse“-Schaltfläche mit dem Dollarzeichen-Bild besser abschneidet als der kleine blaue Button, den er ersetzt hat. Es ist jedoch möglich, dass nur eines dieser Designelemente wichtig war, wie zum Beispiel die Größe.
Denke daran, dass du später weitere Tests mit anderen Elementen durchführen kannst. Die Auswertung von Folgetests ist einfacher als die Analyse eines Tests mit 18 verschiedenen Variablen.
Beende den Test, bevor du Änderungen vornimmst
Da du bei A/B-Tests die Auswirkungen einer Änderung in Echtzeit sehen kannst, ist es verlockend, den Test zu beenden, sobald du Ergebnisse siehst, damit du sofort eine neue Version implementieren kannst. Allerdings bedeutet dies, dass deine Ergebnisse wahrscheinlich unvollständig und weniger wahrscheinlich statistisch signifikant sind. Zeitabhängige Faktoren können deine Ergebnisse beeinflussen, daher musst du das Ende des Testzeitraums abwarten, um von der Randomisierung zu profitieren.
Führe Tests mehr als einmal durch
Selbst die beste Software für A/B-Tests liefert falsch positive Ergebnisse, weil das Benutzerverhalten so variabel ist. Es gibt nur einen Weg, um sicherzugehen, dass deine Ergebnisse korrekt sind: den gleichen Test mit den gleichen Parametern zu wiederholen.
Das erneute Testen ist besonders wichtig, wenn deine neue Version nur kleine Verbesserungen zeigt. Ein einzelnes falsch positives Ergebnis fällt mehr ins Gewicht, wenn es nicht so viele positive Ergebnisse gibt.
Wenn du viele A/B-Tests durchführst, ist es außerdem wahrscheinlicher, dass du auf ein falsch positives Ergebnis stößt. Du kannst es dir vielleicht nicht leisten, jeden Test zu wiederholen, aber wenn du hin und wieder einen erneuten Test durchführst, findest du Fehler mit höherer Wahrscheinlichkeit.
Vereinfache A/B-Tests mit Mailchimp
A/B-Tests sind eine effiziente und effektive Methode, um die Reaktion deiner Zielgruppe auf eine Design- oder Inhaltsidee zu messen, da die Benutzererfahrung nicht beeinträchtigt wird und keine störenden Feedback-Umfragen versendet werden. Probiere einfach etwas Neues aus und lass die Ergebnisse für sich sprechen.
A/B-Tests sind noch Neuland für dich? Teste deine Kampagnen ganz einfach mit Mailchimp, um festzustellen, welche E-Mail-Header, visuellen Elemente, Betreffs und Texte bei deinen Kunden am besten ankommen.