Fiabilidad de datos en webs de grandes volúmenes de datos

Publicado en Análisis el 06 de mayo de 2008 por .

Google Analytics es un software gratuito genial. Incluso grandes empresas con enormes volúmenes de tráfico utilizan Google Analytics. Citaría entre ellas webs del Grupo Intercom, Engrande y un largo etc.

Empresas que en su cultura de empresa, un tanto googlelianas, prefieren la inversión en el recurso humano y sus habilidades, que en las herramientas de pago. Google Analytics es su herramienta.

¿Pero hasta que punto los datos que procesa Google Analytics para una cuenta con miles y miles de visitantes y páginas vistas son fiables?

Google Analytics avisa que a partir de un cierto número de visitas (largos volúmenes de tráfico) ya no puede procesar la información con máxima fiabilidad. O sea, que los reportes que observamos, son estimativos. Al lado de cada informe te ofrece una estadística aproximada de la fiabilidad del informe (+-2% por ejemplo)…

¿Que significa eso? Efectivamente significa que la información procesada ya no es tan real. Que eso es importante, porque una vez un informe ya está distorsionado, lo están todos.

Una vez no sabemos si el número de páginas vistas es el correcto, esto empezará a afectar el medimiento correcto de las acciones comerciales que realizamos, o sea, de las campañas de publicidad y acertar a calcular el retorno de la inversión, mucho más difícil.

Está claro que los datos, aún con volúmenes de tráfico mínimos nunca (y digo nunca) son exactos. ¿Ésto significa que el programa no vale?. Todos los programas de Analítica web ofrecen discrepancias a la hora de medir resultados. Esto lo hemos visto en todas partes. No siempre hay que obsesionarse con la exactitud de un número sino saber entender la tendencia que provocan nuestros acciones para mejorar tráfico y conversión.

Pero seguro que estaréis de acuerdo conmigo que no es lo mismo tener una discrepancia de datos del orden de un 10% en un volumen de tráfico de 5,000 usuarios únicos diarios, que una discrepancia del 10% en un volumen de tráfico de 150,000.

Ayudaría, queda claro, una unidad o una unificación en los criterios de métricas en el campo de la analítica web, una misma bara de medir que nos permita evaluarnos y evaluar a nuestra competencia, no solo a nivel de audiencia (Nielsen)…
Es frecuente también ver incongruencias en informes de contenido cuando se tiene un gran volumen de tráfico. Google Analytics pone un límite al análisis de visualizaciones de url´s. Pongamos por ejemplo que estamos en la cuenta de “idealista.com“. Cada ficha de cada inmueble, cuenta como una url única y distinta. Si se supera el límite (y en teoría está en los 50,000 diarios, pero eso fluctúa mucho, desgraciadamente para menos) Google Analytics empieza a no procesar la información.

Por ejemplo, en el informe de contenido llamado “drill drown” una vez ya ha procesado el número de urls de un día, empieza a clasificar toda las url´s bajo una carpeta llamada “others”. Cuanto más volumen de tráfico y más url´s visualizadas, mayor será el número de urls que veremos procesadas en ésta carpeta.

Habremos también aprendido las discrepancias entre los resultados de e-commerce y los resultados de las campañas, como ya hablamos en otro  artículo.

La conclusión esencial es que todo tiene límites en la vida y también en Google Analytics. Las webs que procesen niveles muy altos de información, si quieren sacar conclusiones de calidad, o bien invierten en analistas de primera línea o empiecen a trabajar con otros programas de analítica web más avanzados: sean ya webtrends, index tools o Omniture.

Etiquetas:

Sobre Ferriol Egea

Ferriol Egea es un experto analista en la optimización de negocios online. Ahora es director de marketing online de la Lavanguardia.com

Puedes encontrar a Ferriol en:



16 Comentarios en Fiabilidad de datos en webs de grandes volúmenes de datos

  1. SEO dominicana

    En mi pais, Republica Dominicana, ni invierten en personal ni en su capacitacion, y mucho menos en programas de pago, dan a conocer estadisticas antojadisas, sin un personal que las desglose de manera profesional, solo para darles un manejo burdo y tratar de embaucar a los demas con las supuestas mediciones que hacen de sus sitios.

    Saludos desde Republica Dominicana, siempre ando leyendo por aqui.

  2. Esteban

    Uno de los sitios que administra la empresa para la cual trabajo tiene varias páginas (html individuales) que superan las 500.000 impresiones por mes y no tienen ese aproximado que mencionan, incluso la home llega a casi 3 millones y tampoco lo tiene, lo que si es cierto es el punto que a mayor cantidad de datos mayor es la demora en actulizar la info.

    Saludos

  3. Ferriol

    Lamento que las cosas vayan así para República Dominicana. Aquí en España, tampoco van tan bien como quisiéramos en nuestro sector.

    Por cierto, muy interesante tu blog. Esperamos que las cosas mejoren tanto en un país como en el otro.

    Muchos saludos a los que lean este blog de República Dominicana!

  4. Ferriol

    Hola Esteban, yo me refería a visitas diarias, no mensuales. 500,000 impresiones por mes, no está nada mal, pero no tiene nada que ver con volúmenes de tráfico de 500,000 visitas al dia…que son millones y millones de impresiones al mes…

  5. Sergi

    Lo que comentas del “other” sin dejar de ser cierto se puede llegar a solucionar de diferentes maneras. La que prefiero consiste en aplicar filtros para agrupar datos y crear perfiles auxiliares para mostrar el detalle de esos datos agrupados. Seguirás sin tenerlos agrupados en un solo perfil, pero al menos los podrás desglosar.

  6. Ferriol

    Si es cierto, lo del “other” no solo se puede solucionar así, sino también con la función tracking pageview para agrupar datos, según el tipo de web, queda claro, pero son muchas las empresas y hablo de las grandes, que ni tan siquiera tienen analistas en plantilla, ni tampoco están dispuestos a pagar por una configuración avanzada que les minimice las discrepancias, ni por supuesto tienen el tiempo como para estudiar las funcionalidades avanzadas de google analytics…

    Pero en este caso, si es cierto, que tiene solución…

  7. David Martín

    Creo y tuvo que ser en tu blog (o el de webanalytics) que lo importante es una persona que entienda los datos, más que la herramienta en sí.

    Si se pueden tener ambas, pues mucho mejor, pero creo que lo importante es un analista, pues con Google Analytics se puede obtener bastante información que bien utilizada, puede llevar a una mejora sustancial tanto de la usabilidad, como del ROI.

    Saludos!

  8. Benjamin Zepeda

    Me gustaría saber cual es el tamaño que permite google analytics, por ejemplo una cuenta gratuita de otro servicio puede guardar 500 en el log.

  9. miguel lucas

    Recuerdo hace unos años cuando me comentaron que todavía a finales de los 80 una de las técnicas de medición de audiencias en TV se basaba en la cantidad de agua en la canalización de desagües en los descansos publicitarios porque la gente iba al servicio durante el intermedio. Y hoy, la precisión de las técnicas de medición online son tan finas que hacen que “nos preocupemos” por errores del 5%. Imagino que algunos marketeros de la antigua escuela no podrán evitar esbozar una sonrisa…

  10. luis almendra

    Tengo una web que en Google Anal. me da un resultado de unas 10 visitas al día. Lo analizo con cuwhois y me da 1.800.000 vistas al mes. Donde está el error. Gracias

  11. Ferriol Egea

    Hola Luis,

    Deberías contarnos un poco más. ¿Cual es la web? ¿Como has implementado el código? , etc…

  12. Jep Aribau

    La clave de una buena implementación en Google Analytics, es la personalización del pagename y su jeraquia.

    Si tienes más de 50.000 paginas diferentes al dia, lo mejor es que empiezes a agrupar las paginas que no aporten valor o sean muy semejantes (mediante mismo pagename+jerarquia). Seguro que después te quedas en una cantidad razonable y manipulable de paginas.

  13. ferriol

    Jep,
    Yo sigo pensando que hay que tener muy en cuenta lo de los 50,000 urls. No se trata de poder manipularlo todo con los pagenames…

    De hecho no hay que ir muy lejos para encontrar muy rápidamente webs que superan casi el millón de urls únicas al día y por muchas agrupaciones que hagas, hay casos en los que no se puede hacer esta agrupación, porque sino perdemos la calidad de la informacion.

    No se trata a veces de la configuración del pagename, sino de entender los límites de GA. Cuando no se puede, no se puede, piensa que para una empresa grande, el configurar el pagename, le puede reportar perder mucha información importante de otra forma.

    Al cliente hay que darle lo que necesita. Y la herramienta se escoge en virtud de lo que el cliente realmente necesita.

  14. Jep Aribau

    Las “grandes empresas” que usan GA, no tienen puestos límites.
    También son empresas que se gastan mucho en Adwords y que ganan con Adsense.

    A los otros mortales, 50.000 diarias diferentes, son muchas, pero no por ello se deba de dejar de personalizar el nombre de pagina en GA. Por poner un ejemplo, sólo con el paso de parametros en la url, tipo “xxxx.php?var1=Z&var2=Y&var3=X”, puedes llegar perfectamente al límite. Esto se tendria que estandarizar con agrupaciones de valores, para no generar infinidad de url parecidas.

  15. ferriol

    No hay diferencia alguna entre una empresa grande y una pequeña a la hora de hablar del límite de 50,000 uri diarias.

    Una cosa es el límite de 5 millones de páginas vistas, que se requiere una cuenta activa de adwords y otra cosa muy distinta es superar el límite de 50,000 urls diarias únicas, que si es para todos los mortales, con o sin adwords, a partir de las cuales, una vez has superado el límite, inmediatamente tus urls empiezan a aparecer en el cajón de sastre “other”…

    Se puede configurar….su pueden filtrar (ojo el limite es por perfil)…pero hay muchos casos en los que las urls únicas son tantas y difíciles de rebajar.

    Imagínate las webs de medios de comunicación o páginas de empleo con millones de noticias o millones de ofertas laborales visualizadas a diario.

    Es una de las cosas de las que no se hablan, pero son ciertas. Los pagenames pueden ser una solución o una arma de doble filo, hay que vigilar, sobretodo hay que estudiar con calma cada caso y cada cliente…pero ojito con lo de las 50,000 urls diarias, que no se resuelve con lo de adwords…

  16. Led

    Los programas que analizan las visitas únicas de los websites, son dispares. Lo principal ha tener en cuenta es en la cantidad de busquedas que te encuentras y por que vías llegan los usuarios a tu sutuio web y hacer una aproximación objetiva de los datos que te ofrecen estos estadísticos.

1 Trackbacks For This Post

  1. El tráfico directo y los datos not provided – M4P Says:

    […] Fiabilidad de datos en webs de grandes volúmenes de datos […]

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos necesarios están marcados *

Puedes usar las siguientes etiquetas y atributos HTML: <a href="" title=""> <abbr title=""> <acronym title=""> <b> <blockquote cite=""> <cite> <code> <del datetime=""> <em> <i> <q cite=""> <strike> <strong>