En esta ocasión veremos el uso de la ley de Zipf para encontrar oportunidades de optimización en nuestras campañas, basado en las palabras claves existentes.
Zipf propuso en su libro “Human Behavior and the Principle of the Least Effort” (1949) una ley empírica sobre la frecuencia de uso de palabras en los discursos y textos. La ley de Zipf dice que mientras algunas pocas palabras son utilizadas frecuentemente, la mayoría son utilizadas muy raramente. En cierta manera esta ley da soporte a la bien conocida Long Tail ya que el uso de palabras se adapta a la ley de distribución normal.
Matemáticamente se expresa de la siguiente manera:
Aunque podría explicar que es cada variable creo que el lector puede estar algo asustado a estas alturas. Pasaremos a ver la utilidad práctica de esta ley en la optimización de las campañas SEM. Lo importante es destacar que esta ley tiene lleva años de utilización y que tiene numerosas aplicaciones para detectar desequilibrios entre la oferta y la demanda de muchos sectores, productos/servicios.
Entonces: A los efectos prácticos de la optimización de campañas SEM nos interesa saber como esta ley puede ayudarnos a detectar aquel grupo de palabras claves que, en relación a las visitas, no se adecua a la constante que debería. .Aclarémoslo un poco con un ejemplo práctico de 3 pasos
1. En Google Analytics, bajo la categoría “Fuentes de Tráfico”, escoge el informe de Palabras Claves y una vez en él, filtra para ver sólo las de pago.
2. Una vez allí, elige un período de unos 3 meses (mínimo) a 1 año y exporta ese informe a Excel. Ahora haz uso de la columna de palabras claves y de visitas para crear un gráfico linear básico.
A continuación vemos el gráfico de una Ley de Distribución normal en su relación entre palabras claves y visitas de las campañas de la Agencia en la que trabajo – Onetomarket.
Hasta aquí va todo bien pero ya conocemos este tipo de gráfico Long Tail y lo que se puede hacer con él. Vayamos un paso más adelante…
3. Si tomamos la columna de visitas del informe y la pasamos a un gráfico de dispersión en base logarítmica doble (ambos ejes), deberíamos ver una tendencia de línea recta (constante) que demostraría la relación inversamente proporcional entre las palabras de búsqueda y la cantidad de visitas provenientes de cada una como se explicó al principio.
Veamos la gráfica resultante:
En el caso en que los puntos del gráfico de dispersión tengan una caída por debajo de la línea que marca la constante, estaremos observando un “cuello de botella” entre la demanda y la oferta. Respecto a las palabras claves de una campaña, hablamos de la necesidad de mejorar el posicionamiento o el número de impresiones (presupuesto limitado) de aquellas palabras claves que se encuentran en este grupo sub-optimizado.
Miremos otro ejemplo presentado en Scifoo hace unos meses por Chris Anderson y relativo a los ingresos provenientes de Taquilla en Estados Unidos mediante la proyección de filmes por ranking de títulos desde el año 2002 al 2005.
La parte rosa del gráfico ilustra la demanda latente en el mercado debido a las ineficiencias en la distribución que comienza en el ranking 300. ¿pero porqué esa caída tan brusca en los ingresos? ¿serán pelis de Chuck Norris?
No. Básicamente se debe a una escasez en la oferta. Y es que las salas de cine en USA tienen una capacidad promedio para presentar unos 100 títulos al año. Por otro lado cada año son unos 13.000 a 14.000 filmes los que se presentan en los festivales de cine. Pero solo una pequeña parte de éstos son elegidos para su distribución comercial y otra parte aún más pequeña logran pasar a la gran pantalla.
En conclusión, la demanda latente podría atenderse de ampliarse la capacidad de las salas de cine y de proyectarse más películas distintas a las del top 300. En este sentido el análisis a realizar será si la inversión requerida tiene el retorno deseado para la industria. Lo que se denomina “Análisis del Costo de Oportunidad”.
Volviendo al caso de nuestro interés, puede que la escasez de nuestra oferta se deba a que algunas palabras de ese grupo sub-optimizado no sean relevantes para nuestro contenido. En ese caso, y tomando el grupo sub-optimizado resultante, podremos hacer uso del resto de columnas del informe: “Páginas Vista”, “Tiempo Promedio en el Sitio” y/o “Porcentaje de Abandonos” para filtrar o priorizar aquellas que realmente demuestren traernos tráfico cualificado. Las que no, podemos eliminarlas o usar negativas para restringir las impresiones a lo que nos interesa.
Finalmente, el Costo de Oportunidad de estas visitas que no recibimos por falta de optimización, puede evaluarse calculando los ingresos por visita promedios multiplicados por el número de visitas que se han dejado de recibir. Este costo de oportunidad tendrá que guiar la decisión de optimizar, eliminar o dejarlo como está, según sea resultado entre el costo de hacerlo y los beneficios proyectados.
7 Comentarios
Juan Cruz, como siempre impecable, te hago una consulta que opinas obre la utilización de Google Analytics pero en este caso para la optimización de las paginas dependiendo del objetivo marcado en ellas, osea: sobre que datos podemos apoyarnos para la optimización?
Por otro lado me intereso mucho la ley de Zipf y me puse a investigar un poco y encontré que la misma ley se puede aplicar a varias cosas.
Les dejo un link para aquellos que les interese el tema.
http://elnido.ech.es/N23/mundocuantico.htm
Saludos
Hola Jonathan,
Si, esta ley viene siendo utilizada en Economía aplicada y en otras áreas desde hace más de 50 años. Como decía en el post, también puede utilizarse para optimización de contenido de un site. En ese caso, los datos a utilizar serían las palabras claves en relación a las páginas vista en lugar de las visitas.
Espero haber respondido a tu pregunta. Un saludo.
En realidad la pregunta aplica mas al hecho de encontrar el punto de inflexion por el cual un usuario no sigue el camino marcado para el objetivo de una campania (no tengo enie), por ejemplo: supongamos que el objetivo del sitio sea lograr una accion «X» y para ello tiene que pasar por una cantidad de paginas «Y» (la menor cantidad posible), de que manera se podria optimizar las paginas en función al analisis de abandonos o que?
Se entinede mas o menos la consulta?
Abrazo
Hola Jonathan,
Creo que ahora lo he entendido mejor. Y para ello mejor un análisis de patrón de navegación en lugar de la Ley de Zipf.
El porcentaje de abandonos de cada página en el proceso que quieres que sigan, sería una buena métrica para mirar pero solo te dice «donde», no te dice «qué». Un análisis de patrón de navegación te acerca más al que y además lo puedes cruzar con un informe de exit links + uno de error de páginas. Si lo anterior lo haces segmentado por grupos de visitas homogéneas (mercados, productos, etc), tendrás los «quienes» y finalmente podrás tomar decisiones concretas…
[…] difícil explicar toda la información que extraje; como anécdota curiosa podría comentar cómo aplicar la ley de Zipf para optimizar Adwords. Puedo asegurar que extraje mucha información que pronto aplicaremos en […]
Estimado,
Mas alla de las críticas (positivas o negativas) al modelo que aplcias. Quería comentarte que todos y cada uno de los contenidos teóricos vertidos en tus informes los he estudiado en la Universidad. Sin embargo los he siempre aplicado a cuestiones sin sentido práctico.
Realmente tu visión fue reveladora, al menos para mi. Agradeco tu esmero y dedicación. Y te felicito por tu capacidad.
Gracias por compartir