Introducción a los tests A/B

Diseño UX
09/7/2009
|
Daniel Torres Burriel
Escritorio redondo con laptop, gafas, planta, celular, lápices y unas manos de mujer tecleando.

¿En algún momento has tenido que tomar una decisión de diseño sin saber de qué forma la aceptarán los usuarios? Seguro que sí. Por ello este post, hablando de una de las técnicas más democratizadoras que nos podemos encontrar cuando se trata de buscar las respuestas mejor acogidas por los usuarios.

El origen de este post es el original en inglés de John Hyde titulado How To Increase Site Performance Through A/B Split Testing, del que he extraído algunas conclusiones que creo que son interesantes.

En realidad el problema se plantea cuando tenemos que tomar una decisión de diseño y tenemos claras dos alternativas diferentes como respuesta a un problema o a una posible mejora. ¿Cuál de las dos será la más adecuada? ¿Cuál de las dos será mejor acogida por parte de los usuarios? ¿Cuál de las dos proporcionará mejores ratios de conversión?

Para dar respuesta a esta disyuntiva podemos contar con el test A/B. Este tipo de tests son una técnica que nos permite encontrar cuáles son los cambios o mejoras que realmente funcionan bien en un sitio web y cuáles no.

Un ejemplo: si tengo dos opciones de diseño para un botón que inicia un proceso de compra, ¿cuál de las dos opciones de diseño es la más adecuada? ¿cuál es la que más procesos va a iniciar? Para ello tenemos la posibilidad de ejecutar un test A/B mediante el que a través de las herramientas oportunas, sirvamos a un 50% de los usuarios el botón con un diseño A y al otro 50% de los usuarios el botón con un diseño B. Los resultados de conversión nos dirán cuál de los dos diseños de botón es el más adecuado. El diseño de botón que más procesos inicie será el adecuado para nuestro caso.

Vale pero, ¿por qué no hacer primero una prueba con el diseño de botón A y después una prueba con el diseño de botón B? La respuesta es simple: las condiciones de entorno y contexto pueden variar de una prueba a otra: época del año, conectividad, tiempo cronológico, etc. Por eso los resultados obtenidos al hacer un test A/B, repartiendo el tráfico al 50%, asegura las mismas condiciones de entorno para la prueba y los resultados son más fiables.

¿Y esto sólo sirve para probar si un diseño de botón es mejor que otro? La respuesta es no. Sirve para probar lo que queramos:

  • Diseño de elementos
  • Copys
  • Imágenes
  • Gráficos
  • Layouts
  • Procesos
  • etc.

¿Y sirve este tipo de testeo para cualquier sitio web? En realidad entiendo que no. Y digo que no porque este tipo de tests dependen en gran medida del tráfico que es capaz de generar un sitio web. Depende de las respuestas que da la acción de la masa crítica, de los usuarios. Por ello, es importante tener en cuenta que el tráfico que tenga nuestro sitio web permitirá otorgar mayor fiabilidad a los resultados de este tipo de pruebas. Simplificando mucho, a más tráfico más exactas conclusiones.

Hay una frase del artículo de John Hyde que me parece definitiva en este sentido: Let the people decide!

En Torresburriel Estudio realizamos estudios heurísticos de usabilidad y de accesibilidad web, verificando el cumplimiento de estándares de usabilidad y accesibilidad como WCAG y WAI-ARIA del W3C. Contacta con nosotros y estudiaremos tu proyecto para diseñar una investigación acorde con tus objetivos de negocio.

¿Quieres darnos tu impresión sobre este post?

18 respuestas a “Introducción a los tests A/B”

  1. Hola,

    para WedTool.com utilizamos las pruebas A/B y la verdad que mereció la pena. Aumentamos en casi un 30% la conversión, y lo mejor es que fue con la opción que menos confiábamos.

    Importante lo que comentas de hacer pruebas en páginas con un mínimo de tráfico (hasta las 200-300 conversiones no se empiezan a obtener resultados fiables).

    Una buena herramienta para tomar decisiones desde la experiencia y no desde el «yo creo que».

  2. Desde luego si el objetivo de la web es captar leads, venta directa o cualqueir objetivo que implique interacción del usuario con tus páginas, las pruebas A/B son imprescindible. Mi experiencia es con Google Optimizer y con Omniture (solo a nivel de prueba) y desde luego son pruebas que verdaderamente te dicen si le estás dando a tu público lo que quiere y, sobre todo, si le estás dando facilidades en el camino hacia la conversión. En mi caso, el resultado más abultado fue una prueba A/B en la web http://www.madrid-oposiciones.com con Google optimizer que hizo que mejorara la conversión a leads de esa web en un 47%, y de hecho esa tendencia se mantiene ahora después de tres meses desde el cambio, y eso es lo importante, que son cambios y mejoras que pueden perdurar. Y ahora mismo estamos en un test multivariante que a ver que resultados nos da.

  3. […] repetirlo, las pruebas de usuario de CTA son absolutamente críticas. Si estás pensando en abordar pruebas A/B de tu interfaz, las llamadas a la acción son el lugar perfecto para empezar. Precisamente, porque incluso cambios […]

Deja una respuesta

Aquí va tu texto personalizado.

Blog

Nos encanta compartir lo que sabemos sobre diseño de producto y experiencia de usuario.
Ver todo el blog
Puedes consultarnos lo que necesites
Envíanos un mensaje
Nombre
Email
Mensaje
Gracias por escribirnos. Nuestro equipo se pondrá en contacto contigo tan pronto como sea posible.
Ha ocurrido un error. Estamos trabajando para resolverlo. Puedes escribirnos al chat.