Experimentación en negocios digitales: Qué hacer cuando existe poco tráfico

La experimentación es un de las herramientas clave para tomar decisiones basadas en datos. A través de ella, podemos optimizar procesos, mejorar la experiencia del usuario y, en última instancia, incrementar la tasa de conversión. Sin embargo, cuando se trata de negocios digitales con poco tráfico, este enfoque puede volverse complicado. Esto se debe a que el tráfico limitado presenta desafíos adicionales que requieren adaptaciones en las estrategias de testeo y en la interpretación de los resultados.

En este artículo, te contamos cómo las empresas con poco tráfico pueden aplicar otros métodos de validación a la hora de experimentar, más allá de las pruebas A/B tradicionales.

El reto del tráfico limitado

Cuando hablamos de poco tráfico, no solo nos referimos a que la cantidad total de usuarios que visitan un sitio web sea baja. Este problema se agrava a medida que los usuarios avanzan a través del funnel de conversión, con cada paso (como el inicio de checkout, o la conversión a compra) siendo completado por un número aún menor de personas.

Esto hace que la experimentación A/B estándar, que requiere una muestra de usuarios con cierto volumen para obtener resultados fiables, sea difícil de implementar. Por ello, es necesario considerar enfoques alternativos que se adapten mejor a estas limitaciones.

Pensar más allá de las pruebas A/B tradicionales

Las pruebas A/B son una metodología clásica en la experimentación digital y pueden no ser suficientes o tan efectivos en el caso de negocios con poco tráfico.

Al trabajar con muestras pequeñas, es crucial explorar otros métodos de validación de hipótesis, más allá del enfoque típico de pequeñas variaciones entre versiones. En muchos casos, probar cambios más grandes y arriesgados o validar mediante test de usuarios, entre otras muchas opciones, puede ofrecer resultados más claros y tangibles.

Conceptos clave para un programa de experimentación

Antes de llevar a cabo un programa de experimentación efectivo, es necesario comprender una serie de conceptos clave de la experimentación, además de entender cómo la cantidad de tráfico de nuestro negocio puede condicionar la fiabilidad y validación de nuestro programa de experimentación.

MDE (Efecto Mínimo Detectable)

El MDE es la diferencia mínima entre dos versiones de un test (A y B) que puede ser detectada de manera fiable. Se trata de un pilar muy importante la experimentación de negocios digitales con poco tráfico.

En un negocio con alto tráfico, es posible detectar diferencias pequeñas entre las variantes, como cambiar el color o la posición de un botón. Sin embargo, en un negocio con poco tráfico, hay que tener en cuenta que los pequeños cambios pueden llegar a ser insuficientes o llevar mucho tiempo hasta conseguir resultados fiables.

efecto mínimo detectable en test A/B

Un MDE bajo aporta resultados mínimamente fiables cuando existe mucho tráfico y tiempo (imagen central). En cambio, cuando el tiempo y el tráfico son escasos, se necesitará de un MDE muy alto para conseguir resultados fiables.

Nivel de confianza

En la mayoría de los tests, se utiliza un nivel de confianza del 95%, lo que significa que existe un 95% de probabilidad de que los resultados no sean fruto del azar.

El poder estadístico es la capacidad de un test para detectar un efecto real si este existe. Generalmente, se utiliza un poder estadístico del 80%. En entornos de bajo tráfico, es posible que tengamos que reducir este valor para obtener resultados, pero esto también implica aceptar un mayor riesgo de falsos negativos.

Puedes usar la calculadora de Speero by CXL para hacer los cálculo en base a los estándares de la industria.

Duración de los tests

Aunque la tentación puede ser extender un test por un largo período para obtener más datos, esto puede generar problemas. Factores externos, como promociones de la competencia o caídas puntuales en la web, pueden alterar los resultados si el test se alarga demasiado.

En general, se recomienda limitar la duración de los tests a unas 2 o 3 semanas para minimizar la interferencia de factores externos.

Ajustes estratégicos en la experimentación

La clave de la experimentación A/B reside en el riesgo potencial que estamos dispuesto a asumir (aplicando cambios más drásticos, inversión en investigación, rigor estadístico, etc.) frente al aprendizaje potencial que queramos obtener. En el caso de tener un tráfico limitado, el riesgo potencial aumenta, en la medida en que deseemos mantener el mismo volumen de aprendizaje.

riesgos de la experimentación A/B

Aumentar el MDE

Dado que es difícil detectar pequeños cambios con poco tráfico, es esencial apuntar a cambios más drásticos. Por ejemplo, en lugar de cambiar detalles menores como el tamaño de un botón, se podrían probar variaciones de diseño más extremas, como rediseñar por completo dicho botón, o modificaciones en el funcionamiento del mismo, que generen una reacción más polarizada de los usuarios. Ten en cuenta que, cuanto mayor sea el cambio, más significativo será el efecto detectable, lo que permitirá obtener resultados más claros.

Pero, ¿cómo podemos aumentar el MDE en nuestro programa de experimentación?

Conocer mejor al usuario

El análisis cualitativo, como entrevistas o análisis de grabaciones de sesiones, puede ser clave para entender qué cambios tienen más probabilidades de impactar de forma significativa. Cuanto más entendamos sobre las necesidades y fricciones del usuario, mejor podremos diseñar tests que produzcan resultados claros.

Ajustar el rigor estadístico

Reducir el nivel de confianza y el poder estadístico puede ayudar a obtener resultados en menos tiempo, aunque a costa de reducir la certeza de los mismos. Cada empresa debe decidir cuánto riesgo está dispuesta a asumir en función de sus objetivos y capacidad de aprendizaje.

Asumir mayores riesgos en los cambios

En algunos casos, puede ser necesario arriesgarse con cambios más radicales. Probar cambios visuales o estructurales que alteren significativamente la experiencia del usuario puede generar respuestas más polarizadas, pero también más medibles.

Microconversiones y KPIs secundarios

Si medir la conversión final (como una compra) resulta imposible por la falta de tráfico, se puede optar por medir microconversiones o KPIs secundarios.

No debemos limitarnos a medir únicamente las conversiones. También se pueden medir otro Estos podrían incluir el número de usuarios que añaden un producto al carrito, inician el proceso de pago o interactúan con un elemento clave de la página. Estas métricas intermedias proporcionan una idea de cómo los usuarios están respondiendo a los cambios y permiten ir obteniendo aprendizajes a lo largo del funnel.

Aumentar la duración de los test

Por último, aunque hemos comentado anteriormente que no se recomienda extender los test más allá de las 2 o 3 semanas, debido al posible incremento de factores externos que afecten a nuestros datos, es importante entender que cuando más tiempo dejemos el test correr, menor será el MDE que podremos detectar. Esta última solución no nos ayuda a aumentar el MDE, pero entender como se relacionan la duración de los test y el MDE nos ayudará a tomar mejores decisiones sobre cuánto tiempo estamos dispuestos a dejar correr nuestro test.

Conclusiones

A pesar de los desafíos, es posible realizar experimentación en negocios con poco tráfico siempre y cuando se adopten estrategias adecuadas. La clave está en adaptar el enfoque tradicional de la experimentación a las limitaciones del tráfico y estar dispuesto a asumir ciertos riesgos, así como utilizar diferentes métodos de validación de hipótesis, más allá de la experimentación a/b. Con un enfoque en el aprendizaje continuo, el análisis cualitativo y la toma de decisiones basada en datos sólidos, incluso los negocios más pequeños pueden beneficiarse de la experimentación para mejorar su rendimiento y optimizar su funnel de conversión.

Recuerda, en un entorno donde cada visita cuenta, adoptar una mentalidad experimental flexible y basada en el análisis profundo puede marcar la diferencia entre el estancamiento y el crecimiento. En VIVA! Conversion estamos preparados para ayudarte a diseñar y ejecutar estrategias de experimentación personalizadas que maximicen el rendimiento de tu negocio digital, incluso con poco tráfico.

Cómo realizar un Test A/B en Convert.com: Guía paso a paso

Realizar pruebas A/B es una técnica esencial para optimizar tu sitio web y mejorar las conversiones. Convert.com es una poderosa herramienta que facilita la ejecución de estos tests. En esta guía, te mostraremos cómo realizar un test A/B paso a paso utilizando Convert.com.

Antes de sumergirnos en la guía, es importante entender qué es un test A/B. Un test A/B, también conocido como experimento de división, es un método de comparación entre dos versiones de una página web o una aplicación para determinar cuál de las dos produce mejores resultados. Este proceso implica mostrar la versión A (original) a la mitad de los usuarios y la versión B (modificada) a la otra mitad, y luego analizar cuál tiene un mejor rendimiento basado en métricas clave.

Beneficios de Realizar un Test A/B

Los tests A/B son cruciales para la optimización de conversiones y la mejora de la experiencia del usuario. Algunos beneficios incluyen:

  • Mejoras en la Tasa de Conversión: Identificar qué cambios en tu sitio web pueden aumentar las conversiones.
  • Reducción del Riesgo: Realizar cambios controlados y medir su impacto antes de implementarlos de manera definitiva.
  • Mayor Conocimiento del Usuario: Comprender mejor cómo interactúan los usuarios con tu sitio y qué prefieren.
  • Optimización Continua: Facilita un ciclo continuo de mejora y optimización de tu sitio web.

Paso a Paso para Realizar un Test A/B en Convert.com

cómo realizar un test ab en convert paso a paso

Paso 1: Inicia Sesión en Convert.com

Primero, necesitas iniciar sesión en tu cuenta de Convert.com. Abre tu navegador y dirígete a Convert.com. Haz clic en «Login» e introduce tus credenciales.

Paso 2: Accede a tu Proyecto

Una vez dentro del panel de control, selecciona el proyecto en el que deseas realizar el test A/B.

Paso 3: Crea un Nuevo Experimento

Haz clic en «Experiments» en el menú principal y selecciona «Create New Experiment».

Paso 4: Configura el Experimento

Asigna un nombre a tu experimento. Luego, elige el tipo de experimento que deseas realizar (A/B Test, Split Test, Multivariate Test). Define el objetivo del test, como mejorar la tasa de conversión.

Consejos para Configurar tu Experimento

  • Nombre del Experimento: Asegúrate de que sea descriptivo y específico.
  • Tipo de Experimento: Elige A/B Test para comparar dos versiones de una página.
  • Objetivo del Test: Puede ser aumentar el número de clics en un botón, mejorar la tasa de suscripción, etc.

Paso 5: Define las Variantes

En la sección de variantes, selecciona «Add Variation». Edita el contenido de la variante según tus necesidades. Puedes cambiar el texto, el color, la posición de elementos, entre otros.

Ejemplos de Variantes

  • Texto del Botón: Cambiar «Comprar Ahora» por «Añadir al Carrito».
  • Color del Botón: Probar diferentes colores para ver cuál llama más la atención.
  • Disposición de los Elementos: Mover el formulario de suscripción a una posición más prominente.

Paso 6: Configura la Segmentación y el Público Objetivo

Define las reglas de segmentación para tu experimento, como mostrar a visitantes de un país específico o usuarios de dispositivos móviles. Ajusta el porcentaje de tráfico que deseas asignar a cada variante.

Importancia de la Segmentación

La segmentación te permite dirigir tus tests a audiencias específicas, asegurando que las variantes sean relevantes para los usuarios que las ven. Esto puede incluir:

  • Geolocalización: Mostrar diferentes variantes a usuarios de diferentes países.
  • Dispositivos: Adaptar las variantes según el dispositivo (móvil, tablet, desktop).
  • Comportamiento: Segmentar según el comportamiento previo del usuario en tu sitio.

Paso 7: Establece los Objetivos del Test

Define los objetivos que deseas medir, como clics, conversiones o tiempo en página. Configura los eventos y las métricas relevantes.

Ejemplos de Objetivos

  • Clics en un Botón: Medir cuántos usuarios hacen clic en un botón específico.
  • Conversiones: Rastrear cuántos usuarios completan un formulario o realizan una compra.
  • Interacción con el Contenido: Medir cuánto tiempo pasan los usuarios en la página o cuántas páginas visitan.

Paso 8: Verifica e Inicia el Test

Revisa todas las configuraciones del experimento para asegurarte de que todo esté correcto. Luego, haz clic en «Activar » para lanzar el test A/B.

Verificación Final

Antes de iniciar el test, asegúrate de:

  • Revisar las Variantes: Verificar que todas las variantes están correctamente configuradas.
  • Confirmar la Segmentación: Asegurarte de que las reglas de segmentación son las adecuadas.
  • Chequear los Objetivos: Comprobar que todos los objetivos y métricas están correctamente configurados.

Paso 9: Monitorea los Resultados

Durante la ejecución del test, monitorea los resultados en tiempo real desde el panel de Convert.com. Analiza las métricas y los informes proporcionados para determinar la variante ganadora.

Análisis de Resultados

Al monitorear los resultados, presta atención a:

  • Tasas de Conversión: Comparar las tasas de conversión entre las variantes.
  • Comportamiento del Usuario: Observar diferencias en cómo los usuarios interactúan con cada variante.
  • Significancia Estadística: Asegurarte de que los resultados sean estadísticamente significativos antes de tomar decisiones.

Paso 10: Implementa la Variante Ganadora

Una vez finalizado el test, implementa la variante que obtuvo mejores resultados en tu sitio web. Documenta los aprendizajes y las mejoras para futuros tests.

Implementación y Mejora Continua

Después de implementar la variante ganadora:

  • Monitorea el Rendimiento: Sigue monitoreando el rendimiento de la variante implementada.
  • Documenta Aprendizajes: Anota los aprendizajes clave para futuras pruebas.
  • Planifica Nuevas Pruebas: Utiliza los resultados para planificar y ejecutar nuevos tests A/B
cómo realizar un test ab paso a paso en convert

Conclusión

Realizar un test A/B en Convert.com es un proceso sencillo que puede ofrecer grandes beneficios a la hora de optimizar tu sitio web. Siguiendo estos pasos, podrás ejecutar tests efectivos y tomar decisiones informadas para mejorar la experiencia de usuario y aumentar las conversiones. La clave está en realizar pruebas continuas y ajustar tus estrategias basándote en los resultados obtenidos.

Cómo generar Test A/B/X para optimizar tus Emails y automatizaciones con Connectif

En Marketing Automation, la optimización continua es clave para lograr el máximo impacto y obtener resultados sobresalientes. Una técnica efectiva para lograr esto es hacer pruebas A/B/X en tus automatizaciones y correos electrónicos con Connectif.

En este artículo, te explicaremos cómo generar pruebas A/B/X para sacar el máximo partido a tus estrategias en Connectif y alcanzer el éxito en tus campañas de correo electrónico.

¡Vamos a ello!

¿Qué es una prueba A/B/X y por qué es importante?

Una prueba A/B/X, también conocida como prueba A/B/C, es una estrategia que implica enviar diferentes versiones de un correo electrónico o automatización a segmentos específicos de tu lista de contactos para determinar cuál funciona mejor.

Estas pruebas son fundamentales para tomar decisiones basadas en datos y mejorar constantemente tus campañas. Aquí tienes una guía paso a paso sobre cómo realizar pruebas A/B/X en Connectif.

Paso 1. Define tu objetivo

Antes de realizar una prueba A/B/X, debes tener claro tu objetivo. ¿Deseas aumentar la tasa de apertura, la tasa de clic o la tasa de conversión? ¿Quieres probar diferentes líneas de asunto, contenido o llamadas a la acción?

Definir tu objetivo te ayudará a diseñar la prueba de manera efectiva.

Paso 2. Selecciona tu elemento de prueba

Decide qué aspecto específico de tu correo electrónico o automatización deseas probar. Algunas ideas de elementos a testar serían:

  • Línea de asunto: ¿cuál atrae más la atención de tus suscriptores?
  • Contenido: ¿Qué tipo de contenido resuena mejor con tu audiencia?
  • Llamada a la acción (CTA): ¿Qué CTA genera más clics?
  • Horario de envío: ¿Existe un horario óptimo para tus envíos?

Paso 3. Divide tu audiencia

Segmenta tu lista de contacto en grupos similares y designa uno como tu grupo de control (A) y los otros como tus grupos de prueba (B,C, etc.). Asegúrate de que los grupos sean lo más parecidos posible, excepto en el elemento que estás probando.

Paso 4. Diseña tus variantes

Crea las diferentes variantes de tu correo electrónico o automatización en Connectif. Asegúrate de cambiar solo el elemento que estás probando. Por ejemplo, si estás probando la línea de asunto, mantén el contenido y las imágenes iguales en todas las variantes, pero cambia la línea de asunto.

Paso 5. Configura tu prueba A/B/X en Connectif

En Connectif, configura la prueba A/B/X en la sección de automatización. Especifica el porcentaje de contactos que recibirán cada variante. Asegúrate de establecer un período de prueba adecuado para recopilar suficientes datos.

Paso 6. Supervisa y analiza los resultados

A medida que las pruebas A/B/X se ejecutan, monitoriza las métricas relevantes, como tasas de apertura, clics y conversiones. Conecta los resultados a tu objetivo inicial. Identifica la variante que obtiene los mejores resultados y declárala como la ganadora.

Paso 7. Implementa los cambios

Una vez que hayas determinado la variante ganadora, aplícala a tus futuras campañas y automatizaciones. Aprende de tus pruebas A/B/X y utiliza ese conocimiento para mejorar continuamente tus estrategias.

Paso 8: Repite el Proceso

La optimización es un proceso constante. Repite las pruebas A/B/X regularmente para mantener tus campañas actualizadas y efectivas.

Ejemplos de workflows para Pruebas A/B/X

Ahora que hemos comprendido la importancia de las pruebas A/B/X en las automatizaciones y correos electrónicos en Connectif, echemos un vistazo a algunos ejemplos de workflows de prueba para obtener una comprensión más clara de cómo puedes aplicar estas estrategias en la práctica.

Ejemplo 1: Prueba de Línea de Asunto en una Campaña de Newsletter

Imagina que estás enviando una campaña de newsletter a tu lista de suscriptores. Quieres saber cuál de estas dos líneas de asunto atrae más la atención:

  • Variante A: «¡Aprovecha las SEMANAS BLACK FRIDAY!»
  • Variante B: «Adelántate a las ofertas! Black Friday»
  • Variante C: «20% DTO en toda la web. Aprovecha nuestro Black Friday»

En Connectif, puedes usar el siguiente workflow en la sección de plantillas donde testar diferentes enfoques:

Ejemplo 2: Prueba de Contenido en un email de Carrito Abandonado

Estás buscando la mejor manera de persuadir a los compradores que han abandonado sus carritos a completar su compra. Quieres probar dos enfoques diferentes de contenido en tu email de carrito abandonado:

Variante A: Ofrecer un descuento del 10% y destacar las ventajas del producto añadido al carrito y su utilidad.

Variante B: Ofrecer un descuento del 10% para incentivar la compra y mostrar los más vendidos.

En este punto, también es importante determinar la frecuencia o tiempo de envío para los emails de carrito abandonado que mejor te funcionen.

Lectura recomendada: Mejorar la tasa de Recuperación de Carrito

Ejemplo 3: Prueba de horario de envío

Estás enviando una serie de correos electrónicos relacionados con el contenido del blog, aprovechando esta misma información para hacer un push sobre determinados productos. Podemos realizar un test sobre dos franjas horarias para determinar cuál de ellas tiene más impacto en tasa de apertura y tasa de conversión a venta.

  • Variante A: Envío a las 15:00 p.m
  • Variante B: Envío a las 18:00 p.m

Ejemplo 4: Prueba de contenido del email

Supongamos que estás ejecutando una serie de correos electrónicos de onboarding para nuevos usuarios de tu aplicación y deseas determinar cuál de los dos enfoques de contenido es más efectivo para retener a los usuarios:

  • Variante A: Resaltar las características clave y la funcionalidad de la aplicación
  • Variante B: Centrarse en la historia de éxito de un usuario anterior y cómo la aplicación les ayudó a lograr sus objetivos

O por ejemplo, como en el siguiente caso, testar si mostrar en un envío del contenido del blog, productos y beneficios, siendo una versión más larga, o una variante más corta que solo te lleve al contenido del post. En este caso, sería un split, donde dividiremos ambas variantes en un 50% del tráfico para evaluar cual ha tenido mayor impacto a venta según el contenido.

Ejemplo 5: Prueba de diseño de pop up de bienvenida

Tienes dudas sobre cómo mostrar el diseño del pop up de bienvenida donde mostrar el descuento para suscribirte. En este caso lo más interesante sería testar ambos diseños para salir de dudas. En este ejemplo, testamos mostrar un pop up solo texto y un pop up con imagen.

Pruebas A/B/X en personalización web

Otra área importante para optimizar tus estrategias en Connectif es la personalización en tu sitio web. A través de pruebas de personalización, puedes determinar qué contenido y experiencias personalizadas resuenan mejor con tu audiencia. Aquí te mostramos algunos ejemplos de test de personalizaciones en la web con Connectif:

Ejemplo 1. Prueba de contenido en la página de inicio

Imagina que tienes una página de inicio de sitio web que tiene  una amplia variedad de productos o servicios. Quieres saber qué enfoque de contenido genera una mayor retención de visitantes y conversiones.

  • Variante A: Destacar los productos o servicios más vendidos en la página de inicio.
  • Variante B: Mostrar recomendaciones de productos basadas en el historial de navegación del visitante. En este caso se podría valorar reiterar el test en caso de ser ganadora la variante para testar diferentes casos de uso según el comportamiento, por ejemplo, si el usuario ha añadido al carrito o si ha realizado compra en los últimos 90 días

En el caso de Adidas, se adaptan al comportamiento del usuario en el site.

En Connectif puedes encontrar el siguiente workflow sobre productos recomendados que puedes adaptar según tu objetivo:

Ejemplo 2. Prueba de mensajes emergentes personalizados

Otra opción sería  aumentar las conversiones en tu sitio web a través de mensajes emergentes personalizados que se muestran a los visitantes en función de su comportamiento. Seguramente, tengas dudas de qué tipo de contenido usar para ello. Algunas alternativas serían:

  • Variante A: Mostrar un mensaje emergente de descuento del 10% después de que un visitante haya estado en la página durante un tiempo específico.
  • Variante B: Mostrar un mensaje emergente que destaque productos relacionados con la página que está viendo el visitante.

Estos serían algunos ejemplos de cómo puedes utilizar Connectif para realizar pruebas de personalización en tu sitio web y ajustar la experiencia del usuario para obtener mejores resultados. La clave para el éxito en la personalización es medir y analizar los datos, aprender de las pruebas y aplicar las lecciones en futuras estrategias de personalización. La personalización efectiva puede llevar a una mayor retención, participación y conversiones en tu sitio web.

Conclusión

En resumen, las pruebas A/B/X son una herramienta esencial para optimizar tus automatizaciones y correos electrónicos en Connectif. Te permiten tomar decisiones basadas en datos y garantizar que tus esfuerzos de marketing por correo electrónico sean lo más efectivos posible. Úsalas como una herramienta valiosa para alcanzar el éxito en tus campañas. ¡Comienza a realizar pruebas A/B/X en Connectif y mejora tus resultados!

Review de VWO: herramienta de A/B testing y optimización

VWO permite crear fácilmente variaciones y pruebas que nos ayuden a ofrecer al usuario lo que necesita y con ello mejorar la conversión. Destacan sus opciones de realizar tests (A/B, Multivariable o Split test) o personalizar la información según el perfil del usuario. También cuenta con unas cuantas funcionalidades que nos darán información muy valiosa que nos haga entender como interactúan los usuarios con nuestra web (heatmaps, grabaciones o análisis de formularios), así como también poder realizar encuestas que nos permitan saber la opinión de los usuarios sobre nuestra web.

Aquí una pequeña valoración de las principales funcionalidades. ¡Al lío!

Testeo

La sencillez a la hora de configurar los tests es sin duda uno de los puntos fuertes de la herramienta VWO. Por lo que no son necesarios conocimientos técnicos muy avanzados. Sin duda una de las razones por las que contratar esta herramienta.

A/B Testing

VWO permite hacer tests A/B de forma muy sencilla. Sólo hay que elegir la URL (o URLs) en la que queremos testar una variante y las condiciones del experimento (p.ej: cómo distribuir el tráfico entre las variantes). Sólo clicando sobre el elemento que se quiere modificar y configurando la variante de la forma deseada (de forma muy sencilla e intuitiva), ya se crearía el test para ser activado.

Estos tests son muy buenos para identificar el impacto en la conversión de un sólo elemento. Muy bueno para generar aprendizajes específicos, que es la base del testeo.

La idea de testar es hacer los cambios web sobre seguro de impacto positivo

Un punto muy positivo de este tipo de tests, es que VWO viene con la funcionalidad de Drag & Drop (arrastrar y soltar), por lo que la facilidad de cambiar la configuración de la página es enorme.

Multivariable

En este tipo de prueba podemos testar varios elementos al mismo tiempo y analizar el rendimiento de cada una de las combinaciones de éstos elementos.

Ejemplo de un test multivariable de 2 títulos + 3 variantes de otro elemento

Este tipo de testeo permite ver como se relacionan distintos elementos entre sí. El punto negativo es que se necesita mucho más tiempo que en el test univariable. Ya que por ejemplo en el caso de la imagen son 6 variables y no 2, por lo que se necesitaría el triple del tiempo que en un test univariable.

Split Test

La diferencia del split test en relación a los comentados anteriormente (multivariable y A/B test) es que en lugar de testar variantes dentro de una página, se testean 2 páginas totalmente diferenciadas. Esto permite testar entornos o procesos totalmente diferenciados.

El split test requiere que se desarrollen 2 páginas diferentes, por lo que se pierde la facilidad de implementación antes comentada en los otros tipos de tests.

Reporting

El reporting es otro de los puntos positivos de la herramienta VWO. Ya que en un simple vistazo se puede ver el impacto de la variante vs el control, concretamente la tasa de conversión de cada opción, los resultados absolutos y lo que es casi más importante, qué nivel de confianza tiene el experimento, para poder darlo como ganador o no.

Ejemplo del informe de resultados de un test A/B

Los resultados se pueden mostrar en términos absolutos o en una gráfica diaria (tanto resultado diario como acumulado). Y se pueden ver gráficas para tasa de conversión, conversiones totales y visitas.

Personalización

Esta opción nos permite adecuar el contenido de la página según los segmentos que nosotros definamos, para sacar el mayor rendimiento posible. Ya que es muy común que el resultado de los tests por segmentos sea desigual. Esta opción nos permite adaptarnos según estimemos oportuno.

Ejemplo de personalización para país, sistema operativo y fuente de tráfico

Análisis de la interacción de los usuarios

Antes hemos comentado las opciones de testeo, cómo podemos adaptar la página a los distintos segmentos y la forma en la que la VWO muestra el rendimiento de las distintas variantes. Pero para enriquecer el análisis (previo y posterior) VWO ofrece una serie de funcionalidades extra muy interesantes. Son las siguientes:

Seguimiento de conversiones

Esta opción permite medir las conversiones desde distintos puntos de la web. Por ejemplo, podemos discriminar las conversiones según si vienen de la Homepage, página de categoría, ficha de producto… Esto nos permite saber cuáles son los flujos con mayor y menor rendimiento y adaptar esos puntos para mejorar los resultados.

Mapas de calor

Los mapas de calor (o heatmaps) son uno de los elementos más importantes para analizar como interactúan los usuarios con nuestra web. Pero consideramos que éste es el punto negativo de VWO, ya que el precio de esta funcionalidad es elevado para la información que ofrece.

Ejemplo de un clicmap

VWO sólo ofrece clicmaps como heatmaps, cosa que nos parece limitado. Hotjar es una herramienta mucho más barata y potente que VWO para analizar mapas de calor, por ello creemos conveniente analizar esta funcionalidad con hotjar. Ya que además de un menor precio, permite además de clicmaps, analizar movemaps y scrollmaps (que aportan información muy relevante que no queremos dejar pasar).

Grabaciones

Gracias a las grabaciones de usuarios podemos analizar la experiencia de usuario de una forma mucho más real. Recomendamos en este caso utilizar etiquetas que segmenten qué tipo de acciones o usuarios queremos analizar.

Formularios

El análisis de los formularios nos permite identificar qué campos del formulario tienen más problemas en ser rellenados (tiempo en ser rellenados, campos re-escritos, ignorados o aquellos en los que han abandonado los usuarios).

Opciones de análisis de formularios de VWO

Encuestas

La última funcionalidad que analizamos es la opción de poder realizar encuestas a usuarios anónimos según los parámetros que seleccionemos (en qué parte de la web lanzar la encuesta, a cuántas personas, en qué zona geográfica…).

Es una funcionalidad muy importante para encontrar problemas de usabilidad de la web. Para ello es bueno lanzar preguntas abiertas que den más manga ancha al usuario para sacar a la palestra problemas no identificados anteriormente.

Al igual que el caso de los mapas de calor, esta funcionalidad tiene un coste extra en la que también hay otras alternativas más económicas para el mismo cometido.

Resumen

En nuestra opinión VWO es una herramienta muy potente como herramienta de testeo. Ya que permite testar variantes sin un gran conocimiento técnico (aunque siempre ayuda, ¡claro!).

Si la inversión no es un problema, sí que tiene sinergias muy positivas tener todas las funcionalidades comentadas en una sola herramienta. Aunque creemos que hay alternativas más potentes y baratas como trabajar el testeo con VWO y los heatmaps, grabaciones, formularios y encuestas con otras herramientas como hotjar.

Google Optimize: cómo hacer tu primer Test A/B

Google Optimize es la herramienta de Google para CRO. Basándose en los datos disponibles sobre tu web de Google Analytics, permite identificar de un modo rápido y sencillo las áreas del sitio web que se pueden mejorar.

De este modo, la interfaz permite crear tests A/B, pruebas de sitios web y personalizaciones para ayudarte a mejorar tu negocio online.

En este post vamos a ver qué es y cómo funciona Google Optimize, así como los pasos que debes llevar a cabo para hacer un test A/B en Optimizer.

¡Sigue leyendo para comenzar con el CRO y llevar tu web al siguiente nivel!

Qué es Google Optimize

Google Optimize es la herramienta creada por Google para CRO que permite hacer tests A/B y multivariate testing.

Es parte de la Suite Analytics 360 y está nativamente integrada con Google Analytics. Esto implica que, para poder usarla, el usuario debe ser propietario (permisos de administrador) de una cuenta en Analytics para crear “un contenedor” asociado a dicha cuenta.

En 2016 Google lanzó Optimize 360 y desde ese momento, como era de esperar, el crecimiento ha sido rápido. Lanzaron una beta y, meses después, lanzaron la versión gratuita (en beta también) accesible previa invitación.

A principios de 2017 se lanzó la versión definitiva accesible para todo el mundo. Se movieron rápido.

Por qué utilizar Optimize de Google

En VIVA! Conversion creemos que Google Optimize es una buena opción para iniciarse en el mundo del CRO. Estas son algunas de las características que hacen de Optimizer una buena opción para optimizar tu tasa de conversión:

  • Es de Google y eso te garantiza una comunidad de soporte bastante potente. La versión 360 promete soporte personalizado. Aunque eso, viniendo de Google no es para lanzar cohetes…
  • Se integra con Analytics en 2 clics. De hecho, es obligatorio vincularlo a una cuenta de Analytics. Dado que la API de Analytics es bastante compleja, poder integrar las métricas de forma nativa es un buen punto a favor.
  • Lo mismo con Google Tag Manager: integración directa en 2 pasos.
  • Han desarrollado un editor WYSIWYG (What you see is what you get) sencillo pero potente.

CRO para Lead Generation: optimiza tu web para convertir

Qué es un test AB

Un test A/B es un método utilizado en marketing online y analítica web para comparar diferentes versiones de una aplicación web (o nativa – mobile apps) con el fin de determinar cuál de ellas cumple mejor un objetivo determinado.

Un test A/B se puede ejecutar en muchos más ámbitos digitales como en e-mail marketing, display ads, text ads… Nos centraremos en tests aplicados en sitios web.

En un test A/B, a una parte aleatoria de los usuarios que llegan a la web (o app) se les muestra la versión original y, a los demás, la variación.

De la comparación de los resultados de rendimiento de una versión frente a la otra se pueden extraer conclusiones para mejorar la tasa de conversión (sea cual sea la conversión).

La complejidad de una estrategia de A/B testing radica en la segmentación de los usuarios y el nivel de significancia estadística, que es el baremo que permitirá decidir cuándo se pueden dar por válidos los resultados de un experimento en el que testeamos una hipótesis.

Qué es un Test AB
Qué es un Test AB – VIVA! Conversion

No solo existen los experimentos de tipo A/B. También podemos llevar a cabo un experimento donde haya más de una variante sobre la versión de control (la original).

Se puede, por ejemplo, preparar 2 variantes y mostrar aleatoriamente a un usuario cualquiera de las 3 versiones. O también se pueden combinar ambas variantes en 4 versiones finales, de la siguiente manera:

  1. versión original
  2. versión original más variación 1
  3. versión original más variación 2
  4. versión original más variaciones 1 y 2

Este tipo de experimentos son test multivariante.

Categorización de los test AB por su naturaleza

  • Client-side: los cambios ocurren in-situ, cuando el usuario accede a la página. A todos los usuarios se les muestra la misma página, pero a algunos se les aplican las variaciones con código (javascript) on site. Aquí podemos diferenciar 2 formas de actuar:
    • variaciones por redirección: tal cual, redirigimos al usuario a otra URL
    • variaciones actuando sobre frontend: cambios directos sobre HTML y CSS
  • Server-side: los cambios ocurren del lado del servidor. Es decir, desde el código que se ejecuta en el servidor se muestra a ciertos usuarios una información diferente. Sirven, por ejemplo, para testear 2 listas de productos diferentes en un ecommerce.

Cómo crear un test AB con Google Optimize

Crear un Test AB con Google Optimize es relativamente sencillo. Te resumimos el proceso en estos 9 pasos:

1. Date de alta en Optimizer

Como todos los servicios de Google, basta con tener una cuenta de Google para acceder a Optimize.

Clic en “Empezar” y ya estamos listos (aparte de un par de preguntas de privacidad y estadística)

Alta en la plataforma
Alta en Google Optimize

2. Configura tu cuenta

Una vez te des de alta, entrarás a la herramienta y encontrarás la primera cuenta y el primer contenedor ya creados y listos para usar.

Una cuenta en Google Optimize es una forma de organizar el trabajo cuando eres tú quien gestiona proyectos de optimización de diferentes clientes. Es como un MCC (My Client Center) en AdWords.

La configuración de una cuenta consiste solo en asignarle un nombre.

3. Crear un contenedor

Un contenedor, dentro de una cuenta, es también bastante sencillo de configurar.

Basta con darle un nombre y sirve, igualmente, para organizar el trabajo:

  • Una cuenta puede referirse, por ejemplo, al nombre del cliente (o al tuyo).
  • Un contenedor puede hacer referencia a “Mi web corportiva” y otro a “Mi blog”.

Un contenedor tiene una ID única y esta es la que tendrás que introducir en Google Tag Manager para insertar la etiqueta de Optimize.

Para implementar un experimento a través de Tag Manager hay que tener en cuenta que se integra todo el contenedor, no el experimento de forma individual.

El contenedor hay que vincularlo a cuenta de Analytics, en la que es obligatorio tener permisos de administración.

Crear un contenedor en Google Optimize
Crear un contenedor en Google Optimize

4. Instala Optimize en tu sitio web

Si usas un gestor de etiquetas (como Google Tag Manager) y la integración con Optimize está desarrollada, será muy fácil.

Bastará con añadir una etiqueta nueva con la ID del contenedor que hemos creado y hacer que la etiqueta se lance en todas las páginas (o, al menos, en todas donde queramos ejecutar experimentos).

Si necesitas ayuda con las etiquetas, en este artículo puedes encontrar soluciones.

Etiqueta de Optimize en Google Tag Manager
Etiqueta de Optimize en Google Tag Manager

Si no es así, tendrás que pegar una línea de código en medio de tu fragmento de código de Analytics en el código fuente de tu página. Si instalaste el código de Analytics, no deberías tener problema con el de Optimize.

Fragmento de código de Google Optimize
Fragmento de código de Google Optimize

5. Un nuevo experimento en Google Optimize

Aquí viene la acción. Los datos que nos pide la herramienta para crear el experimento son:

  1. un nombre (ejemplo: “Variación de color en call to action”)
  2. URL de control (página del editor): es la página web que se usa para crear variaciones
  3. tipo de experimento: test A/B, multivariable o test A/B con redirección. Un poquito más arriba he explicado estos tipos 😉

Ya tenemos todo listo para desarrollar el experimento y lanzarlo.

Pantalla de nuevo experimento
Crear un nuevo experimento (test AB) en Optimize

6. Crea las variantes

Primero le ponemos nombre (por ejemplo: “botón azul”). Pasamos a editarla y llegamos a una vista donde tendremos nuestra página de control y una barra de herramientas.

  • Para cambios en elementos de la página, simplemente pinchamos sobre ellos y la aplicación nos ofrece todos los cambios posibles que podemos hacer, dependiendo del tipo de elemento:
    • Dimensiones
    • Texto
    • Colores
    • Tipografías
    • Posición
    • etc.
  • Dependiendo del nivel de conocimiento que tengas de HTML, CSS y JS, podrás hacer cosas más o menos avanzadas. Pero recuerda que un sencillo cambio de texto en una llamada a la acción puede suponer importantes cambios.

El poder de la experimentación es enorme

  • Si tenemos 1 versión de nuestra landing page en otra URL (porque queremos probar dos propuestas de diseño o layout completamente diferentes, por ejemplo), tendremos que configurar nuestro experimento como una redirección.

Para eso, cuando crees el experimento, recuerda seleccionar tipo “Redirección”. Entonces, al crear una variante en este tipo de experimento sólo tendrás que darle la URL de la nueva versión de tu página.

Recuerda que en todas las variantes que introduzcas en el experimento tiene que estar instalado el snippet (el fragmento de código) de Google Optimize.

Tipos de test en el optimizador de google
Tipos de test en Google Optimize

7. Configura el experimento: tráfico, segmentación y objetivos

¡Estamos muy cerca de publicar el experimento!

El siguiente paso es fundamental para obtener datos de calidad en los resultados del test:

  1. Selecciona el porcentaje de usuarios con los que queremos ejecutar el experimento. Si tienes una gran cantidad de tráfico y es un experimento arriesgado, puedes decidir no atacar a todo el tráfico entrante.
  2. Selecciona a en qué proporción se les va a mostrar cada variante de forma aleatoria. Puedes decidir, si tu experimento es arriesgado y podrías a llegar a perder mucho revenue, mostrar la variante al 30% y la original al 70% de los usuarios.
  3. También puedes añadir condiciones para lanzar el experimento de una forma segmentada.
    Por ejemplo: mostrar solo a los usuarios que están navegando con el móvil, sólo para una determinada zona geográfica, solo para los usuarios que vienen de cierta campaña de Google Ads… O con condiciones un poco más complejas, como por ejemplo: sólo usuarios que hayan buscado cierta/s palabra/s en nuestra página.
  4. Define los objetivos que quieres medir con este experimento. En el siguiente punto amplio un poco la explicación de los objetivos.
Configuración de un experimento en Optimize
Configuración de un experimento en Google Optimize

8. Los objetivos de un experimento

En este punto la configuración se puede volver mucho más compleja. El objetivo de tu experimento puede ser muy variado:

  • número de clicks en un botón (o en varios botones)
  • número de registros
  • leads a través de un formulario
  • productos añadidos al carrito

Para poder medir correctamente la consecución de estos objetivos en Google Optimize, habrás tenido que configurar previamente los objetivos, acciones y eventos en tu vista de Analytics para poder seleccionar los objetivos importados de ahí.

Existe una lista de objetivos predefinidos que pueden servir para un experimento sencillo. Por ejemplo, que los usuarios hagan una acción que desencadenará en cargar una URL nueva.

Para definir el objetivo de visitar una URL concreta existe el personalizado “Número de páginas vistas”, donde puedes definir la condición de haber visitado una URL concreta.

9. Ejecuta el experimento

Cuando ya no nos quede nada pendiente en la configuración del experimento, podremos “Iniciar Experimento” y sentarnos a esperar resultados. Posteriormente, podremos pausarlo o finalizarlo en cualquier momento que queramos.

¿Cuándo dar por finalizado un experimento?

Google Optimize dará por finalizado el experimento cuando alcance un nivel de relevancia estadística del 95% (probabilidad de que una de las variantes supere a la original en la consecución de un objetivo).

Si lo necesitas puedes pausarlo, reiniciarlo y finalizarlo cuando quieras.

Suponiendo que es tu primer experimento, vamos a conformarnos con dar por válido un experimento cuando Google Optimize determine una relevancia estadística cercana al 95%. Si este caso no se llega a cumplir (al cabo de un máximo de 90 días), eres tú el que tiene que llegar a tus propias conclusiones.

Cómo visualizar los resultados de tu Test AB en Optimize

Dentro de la misma herramienta podemos ver un resumen de los resultados del experimento, en la pestaña “INFORMES”.

En esta vista encontraremos:

  • Un resumen de las sesiones trackeadas y de sus consecuciones de los objetivos definidos.
  • La «probabilidad de ser la mejor» de cada versión y la «probabilidad de superar el valor de referencia» de las variantes, calculado a partir de un modelo basado en el análisis estadístico (no 100% empírico como Analytics).
  • Valorará cuándo una de las variantes (incluyendo la original) puede declararse como ganadora del experimento.

Los resultados del experimento también se pueden trackear en nuestra vista de Analytics.

Ahí podremos ver todas las métricas de esta herramienta asociadas a nuestro experimento (en Optimize solo veremos los objetivos que hayamos definido para el experimento).

Informes en Google Optimize
Informes en Google Optimize

No hay excusa para no testear. Google Optimize es gratis y te ayuda a tomar decisiones con base estadística.

¿Ya estás aplicando CRO en tu negocio? ¿Quieres comenzar a hacerlo? ¿Necesitas ayuda? ¡Ponte en contacto con nosotros y nos pondremos manos a la obra para mejorar tu conversión!