Wie A / B-Tests zu einem Rückgang der Conversion führen können

Split-Tests optimieren die Konvertierung. Mit ihrer Hilfe überprüfen Marketer die Wirksamkeit von Änderungen an Zielseiten, Conversion-Formularen und anderen Elementen von Websites. A / B-Tests können jedoch zu einem starken Rückgang der Conversion-Rate führen und den Umsatz verringern. Wie läuft das Lesen Sie unten.

Was ist die Bedeutung von Split-Tests?

A / B-Test ist eine Untersuchungsmethode, mit der Sie die Wirksamkeit von Änderungen auf der Website bewerten können. Gleichzeitig ist der Split-Test eine angewandte Marketingmethode zur Steigerung der Effektivität von Webseiten. A / B-Tests werden mit speziellen Diensten wie Content Experiments, Visual Website Optimizer oder Optimizely durchgeführt.

Das Wesen des A / B-Tests ist wie folgt:

  • Sie untersuchen die Wirksamkeit der Seite und formulieren eine Hypothese.
  • Um eine Hypothese zu testen, erstellen Sie eine Testseite.
  • Mit Hilfe eines speziellen Dienstes verteilen Sie den Datenverkehr zwischen der Quell- und der Testseite der Site.
  • Nach einer bestimmten Zeit vergleichen Sie die Parameter des Tests und der Testseiten. Auf diese Weise können Sie die Hypothese bestätigen oder ablehnen.

Sehr oft sind die Ergebnisse von Split-Tests unerwartet. Beispielsweise kann sich die Conversion-Rate erhöhen, nachdem dankbare Kunden von der Feedback-Seite gelöscht wurden, und die Anzahl der Bestellungen kann sich erhöhen, nachdem der aggressive CTA "Jetzt für den Newsletter anmelden" durch den neutralen Text "Ich möchte Informationen über neue Produkte und Rabatte erhalten" ersetzt wurde.

Manchmal behebt ein A / B-Test nicht nur die Unwirksamkeit von Änderungen, sondern führt auch zu negativen Geschäftsergebnissen. Dies geschieht aufgrund von Marketing- oder technischen Fehlern.

Wie ein Split-Test die Konvertierung zum Erliegen bringen kann: ein Minifall

Der Eigentümer eines beliebten englischsprachigen Internet-Marketing-Blogs hat beschlossen, die Wirksamkeit des Popup-E-Mail-Abonnementformulars zu testen. Er erstellte eine Testversion des Abonnementformulars und verteilte den Datenverkehr mithilfe des AWeber-Dienstes gleichmäßig auf das Testformular und das Testformular. Einen Tag später überprüfte der Blogger die Ergebnisse des Experiments. In dem Bericht sah er folgendes Bild:

In der oberen Zeile werden die Ergebnisse der Testversion und das untere Steuerelement angezeigt. Testergebnisse müssen dekodiert werden:

  • Wahrscheinlichkeit: In dieser Spalte wird die geplante Verteilung des Datenverkehrs zwischen Text- und Kontrollseiten angezeigt.
  • Anzeigen: Benutzer haben die Testversion 6055 und die Kontrollversion 610 gesehen.
  • Abonnenten: Die Testversion brachte 47 Abonnements und die Testversion 19.
  • S / D: Der Prozentsatz der Abonnements für Impressionen.

Sie müssen keinen Abschluss haben, um zu verstehen, dass die Testergebnisse nicht als gültig angesehen werden können. Trotz der Pläne des Experimentators, den Datenverkehr gleichmäßig auf die Test- und Kontrollseite zu verteilen, erzielte die Variante mit den Änderungen fast zehnmal mehr Aufrufe. Wie sich herausstellte, lag dies an einem technischen Defekt auf der AWeber-Plattform.

Es scheint, dass der Blogbesitzer Luft holen, auf die Fehlermeldung warten und das Experiment neu starten kann. Ein gesunder Pingel kann ihn jedoch dazu bringen, das S / D-Verhältnis der Basisseite und die Anzahl der Testseitenzugriffe erneut zu überprüfen. Wenn die Plattform in die andere Richtung ausfällt, können 6055 Impressionen in 187 Abonnements umgewandelt werden. Angesichts des Verlusts von Hunderten von Abonnenten pro Tag kann der Blogger sehr verärgert sein und das Vertrauen in Split-Tests verlieren.

Tatsächlich ist niemand vor technischen Fehlern gefeit, und A / B-Tests bleiben trotz des oben beschriebenen Vorfalls ein wirksames Marketinginstrument. Split-Tests können jedoch fehlerhafte Ergebnisse zeigen und aufgrund von Marketingfehlern zu einem Rückgang der Conversion führen.

Wenn die Split-Tests aufgrund des Versuchsleiters zu Verlusten führen

Experimente werden zu einem Problem für den Standort und das Unternehmen, wenn der Vermarkter in der Planungsphase schwerwiegende Fehler macht. Das Folgende sind die häufigsten Fehler von Experimentatoren.

  • Bedingungen schaffen, die den Verlauf des Experiments stark verzerren

Was denkst du, welcher Text wird zu mehr Conversion: "Produkt in den Warenkorb legen" oder "Bestellung aufgeben"? Die Antwort auf diese Frage erhalten Sie während des Split-Tests. Und welche CTA wird erfolgreicher für das Anmeldeformular sein: "Melden Sie sich für unseren Newsletter an" oder "Lassen Sie die E-Mail und erhalten Sie 1000 Rubel auf das Webmoney-Konto"? Sie kennen die Antwort auf diese Frage ohne einen A / B-Test.

Das Problem ist nicht, dass die Ergebnisse des Experiments verfälscht werden. 99% der Abonnenten, die 1000 Rubel gratis abonnieren, werden sich innerhalb weniger Tage von Ihrem Newsletter abmelden. Sie werden dies nicht sofort nach Erhalt des Geldes tun, nur aus Angst, dass Sie nachts davon träumen und vorwurfsvoll den Kopf schütteln. Es stellt sich heraus, dass dieser Fehler nicht so gefährlich ist, weil die experimentellen Ergebnisse verfälscht werden, sondern weil falsche Konvertierungen empfangen werden.

  • Unzureichende Stichprobengröße

Viele Dienste zur Durchführung von A / B-Tests ermöglichen die willkürliche Bestimmung des Anteils des Verkehrs, der an dem Experiment teilnimmt. Wenn Sie einer unbedeutenden Anzahl von Besuchern die Teilnahme am Experiment gestatten, verlängert sich die Zeit, die erforderlich ist, um ein gültiges Ergebnis zu erhalten, erheblich. Aber das ist noch nicht alles.

Stellen Sie sich folgende Situation vor: Sie testen ein neues Seitendesign. An dem Experiment nahmen 5% der Besucher teil, die auf die Testseite weitergeleitet wurden. Sie haben es nicht eilig, also wollen Sie es nicht riskieren. Nach einem Monat stellt sich heraus, dass die Conversion-Rate der Testseite 2,5-mal höher ist als der Kontrollindikator. Wenn man versucht, sich am Ellbogen auf die Schulter zu beißen, bedeutet dies nichts im Vergleich zum verlorenen Gewinn. Die Verluste könnten durch eine unterschiedliche Verteilung des Datenverkehrs zu Beginn des Experiments erheblich verringert werden.

  • Testen verschiedener Seitenelemente

Stellen Sie sich vor, Sie testen eine neue Textversion für eine Conversion-Schaltfläche. Im letzten Moment beschließt der Designer auch, die Farbe der Schaltfläche selbst auf der Testseite zu ändern. Im Verlauf des Experiments stellte sich heraus, dass die neue Seite zweimal so viele Conversions aufweist wie die alte. Sie führen diesen Effekt auf einen neuen Text zurück und löschen die alte Version.

Nach einer Weile stellen Sie fest, dass die Seitenkonvertierung um 50% gesunken ist. Nachdem Sie sich im Raucherzimmer des Designers eingefangen haben, quetschen Sie ein Geständnis über die Änderung der Tastenfarbe aus ihm heraus. Jetzt können Sie den Umsatzanstieg während des Tests erklären. Darüber hinaus haben Sie Zeit und Kunden verloren, da der neue Text der Conversion-Schaltfläche weniger effektiv war als der alte.

  • Falsche Auswahl der Metriken

Stellen Sie sich vor, Sie testen die Wirksamkeit von Konvertierungsschaltflächen, mit denen Sie einen Benutzer zum Herunterladen eines kostenlosen E-Books einladen. In diesem Fall kann die Konvertierung als Klick auf die Schaltfläche betrachtet werden. Danach wird das Buch automatisch auf die Festplatte des Besuchers geladen. Sie werten die Testergebnisse für die Klickrate jeder Tastenvariante aus.

Und wie beurteilen Sie die Wirksamkeit des Umtausch-Buttons, der Sie auffordert, das Produkt in den Warenkorb zu legen oder eine Bestellung aufzugeben? Ein Klick auf den Button entspricht nicht der Umrechnung, da durch das Hinzufügen des Produkts zum Warenkorb der Benutzer seine Meinung ändern kann. Vielleicht sollte die Wirksamkeit der Schaltfläche anhand der Anzahl der abgeschlossenen Transaktionen bewertet werden? Ist es möglich, dass eine Schaltfläche mit einer höheren Klickrate weniger abgeschlossene Transaktionen generiert? Beeinträchtigt das Geschäft eine Situation, in der Sie fälschlicherweise eine Schaltfläche mit einer hohen Klickrate und einer niedrigen Zahlungsrate für effizienter halten?

Starke Medizin in den Händen der Unerfahrenen, wie ein scharfes Schwert in den Händen eines Verrückten

Ärzte der Antike warnten diese Wörter von Anfängerkollegen vor dem sinnlosen Gebrauch von Drogen. A / B-Test ist ein starkes Marketing-Medikament, das nur bei richtiger Anwendung Vorteile bringt. Geteilte Testfehler können nicht nur Zeitverlust, sondern auch Umsatzeinbußen und Umsatzverluste verursachen. Seien Sie aufmerksam!

Loading...

Lassen Sie Ihren Kommentar