Multi Arm Bandits y PPC Machine Learning
Última actualización: Marzo 7, 7, 7, 7, 7, 7, 7, 7, 7, °| 2022

In today’s post, we’re going to be talking about a common PPC machine learning algorithm of which some variant is leveraged in part by many pay per click platforms called a Bandit de brazo múltiple. Hablaremos sobre cómo se comparan con las pruebas simples de A/B y por qué comprender los tipos de algoritmos que usan estas plataformas es fundamental para comprender cómo lanzar campañas exitosas.
¿Qué es un bandido de múltiples brazos?
Un bandido de múltiples brazos es un tipo de algoritmo de aprendizaje automático que comúnmente se aprovecha con las plataformas de pago por clic para encontrar audiencias de alto rendimiento y anuncios de alto rendimiento con información limitada disponible sobre lo que podría tener éxito al lanzar una campaña. Estos algoritmos son una forma de prueba multivariada que tiene como objetivo impulsar la mayor cantidad de presupuesto posible a las variantes de mayor rendimiento.
para obtener una mejor comprensión de lo que un bandido de brazo múltiple es útil para entender cómo se compara para ejecutar una prueba A/B.
Ejecución de una campaña publicitaria con una prueba A/B
Imagine que un anunciante gastan $ 10,000 al mes ejecutando una campaña. Quieren obtener tantas ventas como sea posible de ese presupuesto de $ 10,000 al mes, pero no saben qué anuncio funcionará mejor en términos de impulsar esas ventas. Crean dos anuncios y asignan el 50% del presupuesto cada uno y lanzan la campaña.
Después de gastar alrededor de $ 2,500, queda claro que uno de los anuncios está funcionando significativamente mejor y se está convirtiendo a una tasa del 5% y generando un rendimiento positivo sobre el gasto en anuncios. El otro anuncio no funciona tan bien y se está convirtiendo a una tasa del 1%, generando un ROI negativo. However, since the campaign is configured to run as a simple A/B test, the remainder of the campaign budget is still spent delivering an ad that is converting at a 1% rate and generating a negative ROI.
What may wind up happening in this scenario is that the negative ROI generated from the low performing ad is combined with the positive ROI generated from the high performing ad and makes the campaign appear as though it was a break even campaign and not a success, when En realidad, se encontró un anuncio de alto rendimiento, pero nuestro método de prueba hizo que los resultados generales de la campaña sufrieran.
Mirando las pruebas de campaña de manera diferente con un bandido múltiple de brazo
Otra forma de ver cómo nuestra campaña se configuró en el ejemplo anterior es que ejecutamos una campaña con 100% del presupuesto asignado a las pruebas. ¿Qué pasa si miramos las pruebas de campaña de manera diferente? Nosotros, como anunciantes, aún no sabemos qué anuncios tendrán anuncios de alto rendimiento desde el inicio de nuestras campañas, por lo que las variantes de anuncios de anuncios siguen siendo valiosas, pero ¿necesitamos asignar el 100% de nuestro presupuesto a las pruebas? ¿Qué pasa si, en cambio, asignamos una pequeña porción de nuestro presupuesto a las pruebas y luego redirigimos el gasto central a los anuncios de mayor rendimiento?
Esto es exactamente lo que un algoritmo de bandido múltiple apunta a hacer. Asignará una parte del presupuesto para probar las variantes de AD, digamos que el 20% del gasto publicitario, y el otro 80% se asignará para gastar en lo que el algoritmo sabe actualmente es la variante de mejor rendimientobest performing variant.

Otros beneficios de los bandidos de múltiples brazos en PPC
Sería genial si la publicidad digital fuera tan simple como dos variantes de AD y condiciones de mercado estático, pero la publicidad del mundo real es mucho más compleja. Las plataformas PPC aprovechan la creatividad dinámica para probar miles de combinaciones de anuncios diferentes y combinar esas combinaciones de anuncios con datos de audiencia y otros factores. Las condiciones del mercado también siempre están cambiando, el reciente lanzamiento de la guerra en Ucrania es un ejemplo perfecto.
Los bandidos de múltiples brazos son una excelente manera de hornear Pruebas continuas. Lo que constituye una combinación de alto rendimiento de creatividad AD y audiencias puede cambiar con el tiempo. Estos algoritmos pueden aprender que ha ocurrido un cambio y redirigir el gasto a las variantes de mayor rendimiento a medida que está disponible una nueva información y los cambios creativos de alto rendimiento.
Los bandidos de múltiples brazos también son un buen ajuste para la publicidad sin supervisión. La realidad es que hay muchos anunciantes aficionados que no tienen ninguna comprensión real de cómo funcionan realmente las plataformas PPC y solo quieren lanzar una campaña publicitaria y rezar por lo mejor. Las plataformas PPC generalmente tienen formas de iniciar campañas publicitarias con configuraciones de configuración mínima en menos de 30 minutos, y formas de configurar profundamente una variedad de configuraciones y permitir que los expertos ajusten sus campañas para obtener los mejores resultados posibles. Los algoritmos de bandidos de múltiples brazos son una excelente manera de facilitar la publicidad no supervisada y obtener los mejores resultados posibles.
Descubra de bandidos de múltiples brazos en PPC
Es bastante bien sabido que Puede quemar mucho dinero a toda prisa mediante un pago por clic en publicidad. Si hasta ahora ha estado prestando atención al artículo, probablemente esté desarrollando una mejor comprensión de por qué. Aunque los bandidos de múltiples brazos son poderosos algoritmos de aprendizaje automático que resuelven problemas publicitarios de manera elegante, su sesgo hacia la acción significa que un algoritmo mal capacitado arrojará el 80% de su presupuesto en una basura absoluta, dejándolo con malos resultados y básicamente sin ROI A DIRECTA.
Dado que una porción tan pequeña de los presupuestos se asigna a las pruebas, es muy fácil para los anunciantes no expertos ver malos resultados en una campaña y tirar del enchufe Antes de que el aprendizaje automático haya tenido la oportunidad de identificar una variante de alto rendimiento. Los anunciantes pueden quedar atrapados en un ciclo interminable de lanzamiento, analizar, sacar la conclusión incorrecta, sacar el tapón y desperdiciar su presupuesto de anuncios completo sin resultados.
Pensamientos finales
Los algoritmos de bandidos múltiples de brazo son un elemento básico de la publicidad PPC y la web en general. Son una forma común de identificar variantes de alto rendimiento en escenarios de pruebas múltiples con aplicaciones a través de publicidad digital, optimización de la tasa de conversión y una gama de otras actividades en la web. Comprender cómo funcionan estos algoritmos es esencial para comprender cómo aprovecharlos de manera efectiva. Las estrategias de licitación automatizadas que aprovechan el aprendizaje automático son una forma extremadamente poderosa de obtener un alto ROI de sus campañas publicitarias, pero saber cuándo usarlas, cómo usarlas y cómo estructurar sus cuentas es un tema complejo lleno de muchas sutilezas. Trabajar con un consultor de PPC para aprovechar al máximo sus campañas es un gasto que puede pagarse fácilmente. Contáctenos hoy y aprenda más sobre cómo podemos ayudar.
Deje un comentario