Descubre todas las posibilidades con los experimentos

Aprende a realizar pruebas A/B de cambios específicos en una campaña y busca la receta del éxito.

¿Cómo podría afectar el uso de una estrategia de pujas diferente, o un tipo diferente de segmentación, al rendimiento de la campaña publicitaria? ¿Sería mejor, peor o prácticamente igual? Ahora puedes realizar una prueba A/B para descubrirlo.

Con los experimentos de Microsoft Advertising, puedes crear un duplicado de una campaña de búsqueda que reciba una división del presupuesto y el tráfico de anuncios de la campaña original. Después, podrás:

  • Probar cambios en el experimento.
  • Ver el rendimiento del experimento en comparación con la campaña original.
  • Si te gustan los resultados del experimento, aplica los cambios a la campaña original o crea una campaña totalmente nueva.
Crear un experimentoexpando image
  1. En la página Campañas, haz clic en la pestaña Experimentos (o en el menú principal de la izquierda, haz clic en Todas las campañas > Experimentos).
  2. Haz clic en Crear experimento.
  3. Selecciona la campaña en la que quieras realizar experimentos. Nota: Actualmente, solo las campañas de búsqueda son aptas para los experimentos.
  4. Cuando hayas seleccionado una campaña, te proporcionamos un Nombre de experimento basado en el nombre de la campaña. Este nombre lo podrás modificar a tu gusto.
  5. Selecciona una Fecha de inicio. La fecha de inicio predeterminada es el día siguiente, lo que te da tiempo para realizar los cambios que quieras probar.
  6. Si solo quieres que el experimento se ejecute durante un determinado período de tiempo, selecciona una Fecha de finalización. De lo contrario, selecciona Ninguno.
  7. Establece tu División de experimento. Es el porcentaje del presupuesto y el tráfico de anuncios de la campaña original que quieres asignar a este experimento. Para asegurarte de que el experimento obtiene el tráfico suficiente para realizar una comparación adecuada, recomendamos que establezcas la división del experimento en 50/50.
    Nota: Ten en cuenta que no podrás cambiar la división mientras se ejecute el experimento.
  8. Opcional: Haz clic en Opciones avanzadas y elige si el tráfico de anuncios de tu experimento debe estar Basado en búsquedas o Basado en cookies.
    • Basado en búsquedas: Cada vez que los clientes hagan una búsqueda, se les muestra de manera aleatoria anuncios del experimento o anuncios de la campaña original. Esto significa que los clientes individuales podrían ver anuncios de los dos orígenes si realizan varias búsquedas.
    • Basado en cookies: Cuando cada cliente haga una búsqueda, mostraremos anuncios del experimento o de la campaña original, y usaremos una cookie para asegurarnos de que a partir de ese momento solo se vean anuncios de ese origen.

    Nota

    No podrás cambiar esta opción mientras se ejecute el experimento. Para ver las ventajas y los inconvenientes de cada opción, echa un vistazo a Ejemplos y consejos para trabajar con los experimentos.

  9. Haz clic en Guardar.
  10. Al cabo de unos minutos, asegúrate de que no se ha producido errores en la creación del experimento:
    1. Vuelve a la página Experimentos y busca el experimento que acabas de crear.
    2. Si se detectan errores en la creación del experimento, habrá un vínculo para Descargar errores en la columna Acciones del experimento. Haz clic en el vínculo, corrige los errores e intenta crear el experimento de nuevo.
Experimentación.expando image

Si no has realizado cambios en la configuración del experimento, no se podría considerar un experimento auténtico, ¿verdad?

  1. En la tabla Experimentos o Campañas, haz clic en el nombre del experimento.
  2. Haz clic en Configuración.
  3. Realizar los cambios que quieras probar. Aquí puedes ver algunos ejemplos y consejos para trabajar con los experimentos.
  4. Haz clic en Guardar.
Importante
  • La única configuración del experimento que no puedes cambiar es el presupuesto del experimento. Si quieres cambiar el presupuesto de un experimento, deberás cambiar el presupuesto de la campaña original. El cambio de valor se dividirá según la configuración de división del experimento.
  • Una vez que hayas creado un experimento, todos los cambios que realices en la configuración de la campaña original (excepto el presupuesto) no afectarán al experimento. Para asegurarte de que ves una comparación justa, recomendamos encarecidamente que no se hagan cambios en la configuración de la campaña original mientras se ejecuta un experimento.

Ya tienes tu experimento configurado y en funcionamiento, junto con la campaña original. Veamos ahora su comparación.

En la página del experimento, verás una tabla que compara las métricas de rendimiento entre el experimento y la campaña original. Elige las métricas que te resulten más importantes para que estén visibles en la tabla y después evalúa el rendimiento del experimento en relación con la campaña original. El color del valor de una métrica refleja el rendimiento del experimento:

  • El verde significa que esta métrica del experimento tiene un mejor rendimiento que la campaña original.
  • El rojo significa que esta métrica del experimento tiene un peor rendimiento que la campaña original.
  • El gris significa que no hay una diferencia de rendimiento estadísticamente significativa entre los dos.
Nota

Debajo del valor de la métrica se muestra la importancia estadística de cada diferencia. Pasa el cursor por encima de estas cifras para obtener más información acerca de la importancia estadística.

Aplicar o finalizar un experimentoexpando image

Si el experimento tiene mejor rendimiento que la campaña original y estás contento con los resultados, ¡enhorabuena! Apliquémoslos.

  1. En la página de experimento, haz clic en Aplicar experimento a...
  2. Elige si quieres aplicar el experimento a la campaña original o a una campaña nueva:
    1. Si la aplicas a la campaña original, toda la configuración del experimento tendrá efecto en la campaña original y el experimento finalizará. La campaña original tendrá de nuevo el 100% de su presupuesto y tráfico original.
    2. Si lo aplicas a una campaña nueva, la campaña original se pondrá en pausa y se creará una campaña nueva con toda la configuración actual de este experimento. La nueva campaña tendrá el mismo presupuesto que la campaña original.
  3. Haz clic en Guardar.

Si, por el otro lado, no estás contento con los resultados del experimento y has terminado de hacer las pruebas, puedes finalizar el experimento antes de su fecha de finalización programada.

  1. En la página de experimento, haz clic en Finalizar experimento ahora.
  2. Este experimento seguirá mostrándose en la página Experimentos para que lo tengas de referencia. Si quieres quitarlo por completo, activa la casilla del experimento y después haz clic en Editar > Eliminar experimento.
Significados de los estados del experimentoexpando image
La columna Estado del experimento de la tabla Experimentos te explica lo que está sucediendo con los experimentos.
Estado del experimentoQué significa
ActivoEl experimento se está ejecutando del modo esperado.
Creando experimentoMicrosoft Advertising está en proceso de crear el experimento en función de tu configuración. Compruébalo de nuevo dentro de unos minutos.
Error al crear el experimentoSe ha producido un problema con la creación del experimento. Haz clic en Descargar errores en la columna Acciones, corrige los errores e intenta crear el experimento de nuevo.
ProgramadoEl experimento se ha creado correctamente, pero aún no se está ejecutando porque la fecha de inicio aún está en el futuro.
CompletadoEl experimento se creó y se ejecutó correctamente hasta su fecha de finalización.
Aplicando experimentoMicrosoft Advertising se encuentra en el proceso de aplicar el experimento a la campaña original o a una nueva campaña, en función de lo que hayas seleccionado. Compruébalo de nuevo dentro de unos minutos.
Experimento aplicadoEl experimento se ha aplicado a la campaña original o a una nueva campaña, en función de lo que hayas seleccionado.
Error al aplicar el experimentoSe ha producido un error al aplicar el experimento a la campaña original o a una nueva campaña. Haz clic en Descargar errores en la columna Acciones, corrige los errores e intenta aplicar el experimento de nuevo.

See more videos...