Zum Inhalt springen

Mit A/B-Testing zu mehr Conversions auf deiner Website

|
31. Juli 2024

„Wie wäre es, wenn wir das anders machen …“, oft gibt es viele Meinungen, wie eine Website auszusehen hat und welche Änderungen sie besser machen würden. Dabei wird mit Bauchgefühl und „wieso nicht“ argumentiert. Doch das muss nicht sein: Mit A/B-Testing können datenuntermauert Entscheidungen getroffen werden, die die Performance deiner Seite nachhaltig steigern. Du vermutest, dass du mit deiner Website noch nicht den Gipfel ihrer Conversion Rate erklommen hast? Dann finde heraus, wo der richtige Hebel liegt, um den entscheidenden Unterschied zu bewirken: mit A/B-Tests!

Inhalt

Wieso A/B-Testing?

Hand aufs Herz: (Beinahe) makellos sind nur die wenigsten Websites. Oder anders ausgedrückt: Ideen, woran es bei der eigenen Website haken könnte, gibt es zumeist viele. Spätestens, sobald sich mehrere Personen mit der Frage beschäftigen, wie man die Seite noch etwas aufpolieren könnte, treffen verschiedene Meinungen aufeinander. Ein verinnerlichter A/B-Testprozess kann hier ansetzen, denn er schafft wertvolle Erkenntnisse über die eigene Website und Nutzer. Es muss nicht der Stärkere seinen Willen durchsetzen, wenn die Daten eine Richtung vorgeben. Zum Beispiel kann A/B-Testing dir aufzeigen:

 

  • Welche Art von Buttons wirklich häufiger geklickt werden

  • Welcher Content deine Nutzer eher zum längeren Verweilen bewegt

  • Welche Nudges bei der Bewerbung deiner Angebote besonders gut funktionieren

 

Ein wenig Erwartungsmanagement direkt vorweg:  Hypothesenbildung und Live-Tests bleiben unverzichtbar, unabhängig davon, ob ihr selbst die A/B-Tests durchführt oder es die Agentur eures Vertrauens macht.

A/B-Testing hat sich als eine der effektivsten Methoden erwiesen, um die Benutzererfahrung zu verbessern und die Konversionsrate zu erhöhen. Doch was genau ist A/B-Testing, welche Vorteile bietet es und wie kann sichergestellt werden, dass die Ergebnisse deiner Tests wirklich aussagekräftig sind? In diesem Artikel gehen wir diesen Fragen auf den Grund und bieten dir einen Leitfaden für erfolgreiches A/B-Testing.

Was ist A/B-Testing?

A/B-Testing, oder auch Split-Testing, ist ein Verfahren, bei dem zwei Versionen einer Website oder eines Elements miteinander verglichen werden, mit dem Ziel festzustellen, welche Version besser performt.

Beide Versionen sind gleichzeitig auf der eigenen Website aktiv, die Besucher werden per Zufallsprinzip in gleich großen Kontingenten (oder nach einem eigenen Schlüssel) auf eine der Versionen geleitet. Dabei wird die ursprüngliche Version in einer Kontrollgruppe (A) gegen die Testgruppe mit einer leicht modifizierten Version (B) getestet. 

Wenn sogar noch mehr Variablen gleichzeitig getestet werden, wird übrigens von Multivariaten Tests gesprochen.

Anhand vorab festgehaltenen Hypothesen wird über passende KPIs (Key Performance Indicators) die Performance der verschiedenen Versionen gemessen. Die richtige Auswahl der Erfolgsindikatoren ist wichtig, denn diese sollten unmittelbar mit der Handlung des Nutzers in Verbindung stehen.

Beispiel für einen A/B-Test

Ein Beispiel für KPIs, die mit dem durchgeführten Test einhergehen:

Du testest, ob ein anderes Icon des Warenkorb-CTAs zu mehr Interaktionen mit dem Element führt. Auf die Idee kamst du, weil das abgewandelte bildliche Icon für Nutzer ggf. besser zu erkennen ist. Hier würdest du bei der Auswertung also primär auf die Interaktion mit dem Button schauen, auf dem das veränderte Icon abgebildet ist. Getreu dem Motto: Messe mit deinen ausgewählten KPIs. Oder umgekehrt: Schaue nicht primär auf den Umsatz, wenn du als Test die Filterung auf deiner Kategorieseite verändert hast.

Welche Bereiche lassen sich mithilfe von A/B-Tests untersuchen?

Die Möglichkeiten, die A/B-Tests bei der Wahl der Testvarianten bieten, sind maximal groß. Fast alle Elemente einer Website können für A/B-Testing infrage kommen, wie z. B.:

  • Überschriften und Texte: Eine einfache Änderung der Überschriften oder Texte auf den wichtigsten Landingpages kann helfen herauszufinden, ob Änderungen in der Ansprache zu mehr Interaktionen mit den angebotenen Inhalten führen.

  • Call-to-Action (CTA) Buttons: Variiere Farbkontraste, Texte und Positionierung auf der Landingpage, um die Version mit der höchsten Klickrate identifizieren.

  • Layout und Design: Tests in der Platzierung von Elementen, dem Aufbau von Seiten sowie Menüs oder Navigation, die auf eine Steigerung der Benutzerfreundlichkeit der Website abzielen.

  • Formulare und Konfiguratoren: Teste Länge, Aufbau und Fragestellung von Formularen hinsichtlich ihrer Abschlussrate. 

Abhängig von der Art des Tests kann der dahinterstehende Aufwand sehr unterschiedlich ausfallen. Grundsätzlich gilt, dass Anpassungen im Text oder in Farben relativ einfach umzusetzen sind. Varianten, die auf Daten auf eine Datenbank zugreifen, werden technisch idealerweise von Webentwicklern begleitet und sind dadurch aufwändiger – aber nicht weniger lohnenswert.

A/B-Tests und SEO

A/B-Tests und die damit verbundene Optimierung der Seite zahlen sich auch für die Suchmaschinen-Performance aus. Wenn viele Nutzer auf deiner Seite das finden, was sie suchen – und das auch direkt sehen und wissen, wie sie von hier aus weiter vorgehen müssen – sendet das wichtige Nutzersignale an die Suchmaschine.

Mehr Know-how? In unserem Podcast webnetz Snacks gibt's alle 14 Tage eine neue Folge mit geballtem Online-Marketing-Wissen!
Jetzt anhören

Vorteile von A/B-Testing

Bevor es an die Tests selbst geht, sollte über die Rahmenbedingungen dieser nachgedacht werden, denn die Daten können nur so gut sein, wie der aufgesetzte Test erlaubt:

Statistische Signifikanz

Halte ein Erfolgskriterium für deine Tests fest. Hierfür wird häufig auf die statistische Signifikanz eines Tests geschaut.

Ein Signifikanzniveau von 95 % bei A/B-Tests bedeutet, dass die Wahrscheinlichkeit, einen Unterschied zwischen den getesteten Varianten fälschlicherweise als aussagekräftig zu erkennen, nur 5 % beträgt.

Statistische Signifikanz ist ein entscheidender Faktor bei A/B-Tests, da sie bestimmt, ob die beobachteten Unterschiede zwischen den Varianten auf tatsächliche Effekte oder auf Zufall zurückzuführen sind. Sie gibt an, wie wahrscheinlich es ist, dass die Ergebnisse nicht durch zufällige Schwankungen entstanden sind.

In der Praxis ist es unmöglich, vollständige Sicherheit zu erreichen, da immer eine kleine, aber nicht auszuschließende Wahrscheinlichkeit besteht, dass ein Ergebnis durch Zufall oder unvorhergesehene Faktoren beeinflusst wurde.

Ein Ergebnis gilt als statistisch signifikant, wenn die Wahrscheinlichkeit, dass es zufällig aufgetreten ist, unter einem festgelegten Schwellenwert (meist 5%) liegt. Dies stellt sicher, dass die getroffenen Entscheidungen auf verlässlichen Daten basieren. Moderne A/B-Testing Plattformen wie ABlyft und Co. unterstützen hier, indem sie selbst diese statistischen Berechnungen durchführen sowie Hinweise zu ausreichend großen Stichproben mitgegeben werden.

Testdauer

Ein A/B-Test sollte über einen ausreichend langen Zeitraum durchgeführt werden, um saisonale oder zeitabhängige Effekte (Werbekampagnen, Aktionen, technische Probleme etc.) auszuschließen. Dementsprechend sollte immer überlegt werden, welche äußeren Einflussfaktoren auf den Test als Kontrollvariablen einwirken und gegebenenfalls der Testzeitraum ausgeweitet werden. Das gilt auch, wenn euer Tool eine statistische Signifikanz und die Stichprobe genug Nutzer aufweist.

Strukturierung eines Testprozesses

Ein strukturierter A/B-Testing-Prozess hilft dabei, fundierte und für dein Team nachvollziehbare Entscheidungen zur Optimierung deiner Website zu treffen. Wichtig: Es können generell mehrere Tests gleichzeitig auf der Website laufen. Wenn dies der Fall ist, sollte hier später auf einen möglichen Interaktionseffekt dieser Tests geachtet werden. Nachfolgend findest du eine Übersicht über die wesentlichen Schritte eines A/B-Testing-Prozesses:

1. Recherche und Datenerfassung

Beginne mit der Analyse der aktuellen Leistung der Website. Wie sieht der Status-Quo aus? Sammle quantitative Daten mittels Tools wie beispielsweise Google Analytics, um Einblicke in die relevanten Messwerte (z. B. meistbesuchte Seiten, Verweildauer oder Absprungraten) zu erhalten.

 

Lesetipp: Erfahre mehr zum Analysetool von Google in unserem Artikel Dimensionen und Messwerte in Google Analytics 4 verstehen.

 

Ergänze diese bereits vorhandenen Erkenntnisse durch qualitativen Daten, wie etwa durch Heatmaps und Nutzerumfragen, um die Problemstellen und das Nutzerverhalten besser zu verstehen​​.

 

2. Hypothesenbildung

Entwickle, basierend auf den gesammelten Daten, Hypothesen, die spezifische Änderungen und deren erwartete Auswirkungen beschreiben. Eine gut formulierte Hypothese könnte zum Beispiel lauten:

Wenn die Filterung dem Nutzer präsenter angezeigt wird und im Produktlisting auftaucht,

dann sinkt die Ausstiegsrate auf Kategorieseiten und die Anzahl an hinzugefügten Produkten zum Warenkorb steigt

weil der Nutzer für ihn mühelose Führung erhält und damit eine relevante Auswahl schneller eingrenzen kann.


3. Erstellung der Varianten

Erstelle eine Testversion (Variante) deines betrachteten Elements / deiner Seite, die von der verfassten Hypothese abgeleitet ist und stelle sicher, dass diese Variante technisch ohne Probleme dargestellt werden kann.

 

Denn: Es wäre schlecht, würde eine Variante deutlich längere Ladezeiten oder störend nachladende Elemente aufweisen. Das würde die Ergebnisse verfälschen, da nach drei Sekunden Ladezeit mehr als 30 % der Nutzer abspringen. Klingt spannend? Lerne mehr Fakten und Optimierungsmöglichkeiten deiner Seite in unserem Beitrag Landingpage optimieren.

 

4. Durchführung des Tests

Führe den Test mit einem geeigneten A/B-Testing-Tool durch, wobei der Traffic gleichmäßig auf die Originalseite (Kontrollgruppe) und die Variante verteilt wird. Achte darauf, den Test über einen ausreichenden Zeitraum und passender Stichprobe laufen zu lassen, um statistisch signifikante Ergebnisse zu erhalten​. Prüfe die einlaufenden Daten und die technisch saubere Umsetzung der Seite regelmäßig.

 

5. Analyse der Ergebnisse

Nach Abschluss des Tests kannst du die Daten analysieren. Hier fängt der Spaß so richtig an, weil du so feststellen kannst, ob die Änderungen in deiner Testgruppe zu einer signifikanten Verbesserung geführt haben. Verwenden statistische Signifikanztests, um sicherzustellen, dass die Ergebnisse nicht zufällig sind.

 

Übrigens: Auch signifikante Verschlechterungen sind wertvolle Einsichten für deine Website! Verschlechterungen bieten die Möglichkeit, wertvolle Erkenntnisse über das Nutzerverhalten und die Interaktionen mit der Website zu gewinnen und deine zukünftigen Hypothesen bei den betrachteten Elementen zu schärfen. Achtung: Nur weil eine Testvariante signifikant schlechter abgeschnitten hat, bedeutet das nicht automatisch, dass die Antithese korrekt sein muss!

 

6. Umsetzung und Wiederholung

Implementiere die erfolgreich getestete Variante und beobachte weiterhin die Leistung. Fertig. Oder? Nein! A/B-Testing ist ein fortlaufender Prozess: Wiederhole Tests regelmäßig, um fortlaufend Verbesserungen zu erzielen und neue Optimierungspotenziale zu identifizieren​, die auf den neusten Daten basieren.

 

Denn testen kann man selten zu viel. Schau dir daher auch unseren Artikel zum Thema UI Testing an.

Fazit: A/B-Testing verbessert die Nutzererfahrung und Performance

A/B-Testing ist eine unverzichtbare Methodik für die kontinuierliche Erkenntnisgewinnung über die Interaktionen deiner Nutzer mit deiner Website und somit nachfolgend für die Steigerung der Website-Performance. Durch das systematische und Hypothesen gestützte Testen von Website-Elementen können datengestützte und nachvollziehbare Entscheidungen getroffen werden, die zu einer höheren Konversionsrate und einer verbesserten Benutzererfahrung führen. Kurzum, es geht bei A/B-Tests darum, aussagekräftige und für das eigene Team umsetzbare Ergebnisse zu liefern, die auch den Nutzern zugutekommen. Wir werden zwar nie eine magische Glaskugel besitzen, mit der wir die Zukunft zu 100 % vorhersagen können, doch anhand unserer Methodik und dem Blick auf statistische Gütekriterien kommen wir der täglichen Realität auf unseren Websites mit erträglich großem Aufwand so nahe wie möglich.

Max


FAQs

Was ist der Unterschied zwischen A/B-Testing und multivariaten Tests?

Während klassisches A/B-Testing zwei Versionen einer Seite vergleicht, untersucht der multivariate Test mehrere Variationen gleichzeitig, um die optimale Kombination von Elementen zu finden.

Wie lange sollte ein A/B-Test durchgeführt werden?

Die Dauer eines A/B-Tests hängt von der Besucherzahl und der gewünschten statistischen Signifikanz ab. In der Regel sollte ein Test mindestens zwei Wochen laufen, um aussagekräftige Testergebnisse zu liefern. Bedenke stets externe Effekte, die sich im Testzeitraum auf deine Ergebnisse auswirken könnten.

Kann A/B-Testing auch auf mobile Apps angewendet werden?

Ja, A/B-Testing kann auch auf mobile Apps angewendet werden, um die Benutzererfahrung und die Konversionsrate zu optimieren.


Nachweis Titelbild: istockphoto.com/yogysic

Gefallen? Dann einfach teilen!

Autor

Maximilian Girnus Webanalyse

Von der salzigen Nordsee ab ins Online-Marketing: Nach seinem Masterabschluss in Wirtschaftspsychologie ließ Max die weiten Küsten der schleswig-holsteinischen Heimat hinter sich und zog in die schöne Hansestadt Lüneburg. Mit Fokus auf Conversion Rate Optimierung und Webanalyse ist Max ein Fachmann auf diesem Gebiet – erfolgreiche Marketingstrategien setzt er anhand von komplexer Daten um. Abseits der Onlinewelt ist Max ein privater Fan von Wandertouren und spannenden Filmen.

Webinare

Kommende Webinare passend zum Thema

Newsletter

Online-Marketing-News direkt ins Postfach

Blogs, Podcasts, Webinare zu aktuellen Themen:
Melden Sie sich jetzt für unseren Newsletter an.

Kommentare

Noch sind keine Kommentare vorhanden. Das ist deine Chance dies zu ändern!