Entdecken Sie die Möglichkeiten von Experimenten
Entdecken Sie die Möglichkeiten von Experimenten
Erfahren Sie, wie Sie A/B-Tests für bestimmte Änderungen in einer Kampagne durchführen und Ihren Erfolg steigern können!
Welche Auswirkungen hätte eine andere Gebotsstrategie oder eine andere Art des Zielgruppen-Targeting auf die Performance Ihrer Anzeigenkampagne? Wäre sie besser, schlechter oder im Grunde gleich? Sie können nun einen A/B-Test ausführen, um dies herauszufinden!
Mit Microsoft Advertising-Experimenten können Sie ein Duplikat einer Suchkampagne erstellen, die einen Teil des Budgets und des Anzeigendatenverkehrs der ursprünglichen Kampagne erhält. Dann können Sie Folgendes tun:
- Testen Sie Änderungen im Experiment.
- Ermitteln Sie die Performance des Experiments im Vergleich zur ursprünglichen Kampagne.
- Wenn Ihnen die Ergebnisse des Experiments gefallen, wenden Sie die Änderungen auf die ursprüngliche Kampagne an, oder erstellen Sie eine ganz neue Kampagne.
Erstellen eines Experiments
-
Wählen Sie im reduzierbaren Menü links Alle Kampagnen > Experimente.
- Wählen Sie Experiment erstellen.
- Wählen Sie die Kampagne für das Experiment aus. Hinweis: Derzeit kommen nur Suchkampagnen für Experimente in Frage.
- Sobald Sie eine Kampagne ausgewählt haben, stellen wir einen Namen in Experimentname bereit, der auf dem Namen der Kampagne basiert. Sie können diesen Namen nach Ihren Wünschen bearbeiten.
- Wählen Sie ein Startdatum aus. Standardmäßig wird der nächste Tag als Startdatum verwendet, sodass Ihnen genügend Zeit für die zu testenden Änderungen bleibt.
- Wenn das Experiment nur für eine bestimmte Dauer durchgeführt werden soll, wählen Sie ein Enddatum aus. Andernfalls wählen Sie Kein aus.
- Legen Sie Ihre Experimentaufteilung fest. Dies ist der Prozentsatz des Budgets und des Anzeigendatenverkehrs der ursprünglichen Kampagne, den Sie diesem Experiment zuweisen möchten. Damit das Experiment genügend Datenverkehr für einen fairen Vergleich erhält, sollten Sie die Aufteilung auf 50/50 einstellen.
Hinweis: Der Anteil kann nicht geändert werden, während das Experiment ausgeführt wird.
- Optional: Wählen Sie Erweiterte Optionen, und wählen Sie aus, ob der Anzeigendatenverkehr Ihres Experiments suchbasiert oder cookiebasiert sein soll.
- Suchbasiert: Bei jeder Suche werden nach dem Zufallsprinzip entweder Anzeigen des Experiments oder Anzeigen Ihrer ursprünglichen Kampagne eingeblendet. Das bedeutet, dass einzelne Kunden möglicherweise Anzeigen aus beiden Quellen sehen, wenn sie mehrere Suchvorgänge durchführen.
- Cookiebasiert: Wenn einzelne Kunden eine Suche durchführen, werden entweder Anzeigen des Experiments oder Anzeigen der ursprünglichen Kampagne eingeblendet. Mithilfe eines Cookies wird gewährleistet, dass zukünftig nur noch Anzeigen aus der jeweiligen Quelle eingeblendet werden.
- Wählen Sie Speichern aus.
- Überprüfen Sie nach einigen Minuten, ob bei der Erstellung des Experiments keine Fehler aufgetreten sind:
- Gehen Sie zurück zur Seite Experimente, und suchen Sie das gerade erstellte Experiment.
- Wenn bei der Erstellung des Experiments Fehler aufgetreten sind, wird in der Spalte Aktionen dieses Experiments der Link Downloadfehler angezeigt. Wählen Sie diesen Link, beheben Sie die Fehler und versuchen Sie, das Experiment erneut zu erstellen.
Experimente!
Wenn Sie keine Änderungen an den Einstellungen des Experiments vornehmen, ist es nicht wirklich ein Experiment, oder?
Wichtig
-
Nur eine Experimenteinstellung kann nicht geändert werden: das Budget des Experiments. Wenn Sie das Budget eines Experiments ändern möchten, müssen Sie das Budget der ursprünglichen Kampagne ändern. Der geänderte Wert wird dann basierend auf der Einstellung für die Experimentaufteilung aufgeteilt.
-
Sobald Sie ein Experiment erstellt haben, zeigen Änderungen, die Sie an den Einstellungen der ursprünglichen Kampagne vornehmen, keine Auswirkungen auf das Experiment. (Dies gilt nicht für das Budget.) Zur Gewährleistung eines fairen Vergleichs wird dringend empfohlen, keine Änderungen an den Einstellungen der ursprünglichen Kampagne vorzunehmen, während ein Experiment ausgeführt wird.
Jetzt haben Sie also Ihr Experiment eingerichtet und es wird zusammen mit der ursprünglichen Kampagne ausgeführt. Sehen wir uns nun den Vergleich an.
Auf der Seite des Experiments wird eine Tabelle angezeigt, in der Performance-Kennzahlen des Experiments und der ursprünglichen Kampagne angezeigt werden. Suchen Sie sich die für Sie wichtigen Kennzahlen heraus, die Sie in der Tabelle anzeigen möchten, und vergleichen Sie dann die Performance des Experiments mit der ursprünglichen Kampagne. Die Farbe einer Kennzahl zeigt die Performance des Experiments an:
- Grün bedeutet, dass das Experiment für diese Kennzahl eine bessere Performance zeigt als die ursprüngliche Kampagne.
- Rot bedeutet, dass das Experiment für diese Kennzahl eine schlechtere Performance zeigt als die ursprüngliche Kampagne.
- Grau bedeutet, dass zwischen den beiden kein signifikanter Performance-Unterschied besteht.
Hinweis
Die statistische Bedeutung jeder Differenz wird unter der Kennzahl angezeigt. Sie können mehr zur statistischen Bedeutung erfahren, indem Sie den Mauszeiger über diese Zahlen bewegen.
Anwenden oder Beenden eines Experiments
Wenn Ihr Experiment besser funktioniert als seine ursprüngliche Kampagne und Sie mit den Ergebnissen zufrieden sind – herzlichen Glückwunsch! Wenden Sie es an.
- Wählen Sie auf der Seite des Experiments die Option Experiment anwenden auf....
- Geben Sie an, ob das Experiment auf die ursprüngliche Kampagne oder auf eine neue Kampagne angewendet werden soll:
- Wenn Sie es auf die ursprüngliche Kampagne anwenden möchten, werden alle Einstellungen des Experiments in der ursprünglichen Kampagne übernommen, und das Experiment wird beendet. Die ursprüngliche Kampagne verfügt wieder über 100 % des ursprünglichen Budgets und Datenverkehrs.
- Wenn Sie das Experiment auf eine neue Kampagne anwenden, wird Ihre ursprüngliche Kampagne pausiert und eine neue Kampagne wird mit allen aktuellen Einstellungen für dieses Experiment erstellt. Die neue Kampagne hat dasselbe Budget wie die ursprüngliche Kampagne.
- Wählen Sie Speichern aus.
Wenn Sie hingegen mit den Ergebnissen Ihres Experiments nicht zufrieden sind und die Tests abgeschlossen sind, können Sie ein Experiment vor dem geplanten Enddatum beenden.
- Wählen Sie auf der Seite des Experiments die Option Experiment jetzt beenden.
- Dieses Experiment wird weiterhin auf der Seite Experimente als Referenz aufgeführt. Wenn Sie es vollständig entfernen möchten, aktivieren Sie das Kontrollkästchen für das Experiment und wählen Sie dann Bearbeiten > Experiment löschen.
Bedeutung des Experimentstatus
In der Spalte
Experimentstatus der Tabelle
Experimente sehen Sie, was gerade mit Ihren Experimenten geschieht.
Experimentstatus | Bedeutung |
---|
Aktiv | Das Experiment wird wie geplant ausgeführt. |
---|
Experiment wird erstellt | Microsoft Advertising erstellt das Experiment gerade auf Grundlage Ihrer Einstellungen. Sehen Sie in ein paar Minuten wieder nach. |
---|
Experiment konnte nicht erstellt werden | Bei der Erstellung des Experiments ist ein Fehler aufgetreten. Wählen Sie in der Spalte Aktionen die Option Fehler herunterladen, korrigieren Sie die Fehler, und versuchen Sie erneut, das Experiment zu erstellen. |
---|
Geplant | Das Experiment wurde erfolgreich erstellt, aber es wird noch nicht ausgeführt, da das Startdatum in der Zukunft liegt. |
---|
Abgeschlossen | Das Experiment wurde erfolgreich erstellt und bis zum Enddatum ausgeführt. |
---|
Experiment wird angewendet | Microsoft Advertising wendet das Experiment gerade je nach Ihrer Auswahl auf die Originalkampagne oder auf eine neue Kampagne an. Sehen Sie in ein paar Minuten wieder nach. |
---|
Experiment angewendet | Das Experiment wurde je nach Ihrer Auswahl entweder auf die Originalkampagne oder auf eine neue Kampagne angewendet. |
---|
Experiment konnte nicht angewendet werden | Beim Anwenden des Experiments auf die Originalkampagne oder auf eine neue Kampagne ist ein Fehler aufgetreten. Wählen Sie in der Spalte Aktionen die Option Fehler herunterladen, korrigieren Sie die Fehler, und versuchen Sie erneut, das Experiment anzuwenden. |
---|