Analíticas web

Compartir Imprimir Citar

Las analíticas web es la medición, recopilación, análisis y generación de informes de datos web para comprender y optimizar el uso de la web. El análisis web no es solo un proceso para medir el tráfico web, sino que puede usarse como una herramienta para la investigación comercial y de mercado y evaluar y mejorar la efectividad del sitio web. Las aplicaciones de análisis web también pueden ayudar a las empresas a medir los resultados de las campañas publicitarias impresas o de difusión tradicionales. Se puede usar para estimar cómo cambia el tráfico a un sitio web después de lanzar una nueva campaña publicitaria. La analítica web proporciona información sobre el número de visitantes de un sitio web y el número de páginas vistas, o crea perfiles de comportamiento de los usuarios. Ayuda a medir las tendencias de tráfico y popularidad, lo cual es útil para la investigación de mercado.

Pasos básicos del proceso de analítica web

La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, que son:

Otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos

El objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumentan o maximizan el efecto de un resultado de interés probado estadísticamente.

Cada etapa impacta o puede impactar (es decir, impulsa) la etapa anterior o posterior. Entonces, a veces, los datos que están disponibles para la recopilación afectan la estrategia en línea. Otras veces, la estrategia en línea afecta los datos recopilados.

Tecnologías de analítica web

Hay al menos dos categorías de análisis web, análisis web fuera del sitio y en el sitio.

Históricamente, el análisis web se ha utilizado para referirse a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto borroso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías. Muchos proveedores diferentes ofrecen software y servicios de análisis web en el sitio. Hay dos formas técnicas principales de recopilar los datos. El primer y tradicional método, el análisis del archivo de registro del servidor, lee los archivos de registro en los que el servidor web registra las solicitudes de archivos de los navegadores. El segundo método, etiquetado de página, utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor dedicado de análisis de terceros, cada vez que un navegador web muestra una página web o, si lo desea, cuando se produce un clic del mouse. Ambos recopilan datos que pueden procesarse para producir informes de tráfico web.

Fuentes de datos de análisis web

El objetivo fundamental de la analítica web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos provienen principalmente de cuatro fuentes:

  1. Datos de solicitud HTTP directos: provienen directamente de los mensajes de solicitud HTTP (encabezados de solicitud HTTP).
  2. Datos a nivel de red y generados por el servidor asociados con solicitudes HTTP: no forman parte de una solicitud HTTP, pero son necesarios para transmisiones de solicitudes exitosas, por ejemplo, la dirección IP de un solicitante.
  3. Datos de nivel de aplicación enviados con solicitudes HTTP: generados y procesados ​​por programas de nivel de aplicación (como JavaScript, PHP y ASP.Net), incluidas sesiones y referencias. Por lo general, estos son capturados por registros internos en lugar de servicios públicos de análisis web.
  4. Datos externos: se pueden combinar con datos en el sitio para ayudar a aumentar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web. Por ejemplo, las direcciones IP generalmente se asocian con regiones geográficas y proveedores de servicios de Internet, tasas de clics y apertura de correo electrónico, datos de campañas de correo directo, ventas e historial de clientes potenciales u otros tipos de datos según sea necesario.

Análisis de archivos de registro del servidor web

Los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se dio cuenta de que estos archivos de registro podían ser leídos por un programa para proporcionar datos sobre la popularidad del sitio web. Así surgió el software de análisis de registros web.

A principios de la década de 1990, las estadísticas de los sitios web consistían principalmente en contar el número de solicitudes de clientes (o visitas) realizadas al servidor web. Inicialmente, este era un método razonable, ya que cada sitio web a menudo constaba de un solo archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban varios archivos HTML, este recuento se volvió menos útil. El primer Log Analyzer comercial verdadero fue lanzado por IPRO en 1994.

A mediados de la década de 1990 se introdujeron dos unidades de medida para medir con mayor precisión la cantidad de actividad humana en los servidores web. Estas fueron páginas vistas y visitas (o sesiones). Una vista de página se definió como una solicitud realizada al servidor web para una página, a diferencia de un gráfico, mientras que una visita se definió como una secuencia de solicitudes de un cliente identificado de forma única que expiró después de una cierta cantidad de inactividad, generalmente 30 minutos..

La aparición de arañas y robots de motores de búsqueda a fines de la década de 1990, junto con proxies web y direcciones IP asignadas dinámicamente para grandes empresas e ISP, hizo que fuera más difícil identificar a los visitantes humanos únicos de un sitio web. Los analizadores de registro respondieron rastreando las visitas de las cookies e ignorando las solicitudes de las arañas conocidas.

El uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará del caché del navegador y, por lo tanto, el servidor web no recibirá ninguna solicitud. Esto significa que se pierde el camino de la persona a través del sitio. El almacenamiento en caché se puede anular configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores.

Etiquetado de página

Las preocupaciones sobre la precisión del análisis de archivos de registro en presencia de almacenamiento en caché y el deseo de poder realizar análisis web como un servicio subcontratado llevaron al segundo método de recopilación de datos, el etiquetado de páginas o "balizas web".

A mediados de la década de 1990, los contadores web eran comunes: eran imágenes incluidas en una página web que mostraban la cantidad de veces que se había solicitado la imagen, que era una estimación de la cantidad de visitas a esa página. A fines de la década de 1990, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible y, mediante el uso de JavaScript, pasar junto con la solicitud de imagen cierta información sobre la página y el visitante. Esta información luego puede ser procesada de forma remota por una empresa de análisis web y generar estadísticas extensas.

El servicio de analítica web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarle de forma única durante su visita y en visitas posteriores. Las tasas de aceptación de cookies varían significativamente entre sitios web y pueden afectar la calidad de los datos recopilados e informados.

La recopilación de datos del sitio web utilizando un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda de DNS adicional por parte de la computadora del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, los retrasos en la realización de búsquedas de DNS exitosas o fallidas pueden provocar que no se recopilen datos.

Con la creciente popularidad de las soluciones basadas en Ajax, una alternativa al uso de una imagen invisible es implementar una llamada al servidor desde la página renderizada. En este caso, cuando la página se representa en el navegador web, una parte del código Ajax devolvería la llamada al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web. De alguna manera, esto tiene fallas por las restricciones del navegador en los servidores a los que se puede contactar con objetos XmlHttpRequest. Además, este método puede conducir a niveles de tráfico informados ligeramente más bajos, ya que el visitante puede detener la carga de la página en medio de la respuesta antes de que se realice la llamada Ajax.

Análisis de archivos de registro frente a etiquetado de páginas

Tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que desean realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Entonces surge la pregunta de qué método debe elegir una empresa. Hay ventajas y desventajas para cada enfoque.

Ventajas del análisis de archivos de registro

Las principales ventajas del análisis de archivos de registro sobre el etiquetado de páginas son las siguientes:

Ventajas del etiquetado de páginas

Las principales ventajas del etiquetado de páginas sobre el análisis de archivos de registro son las siguientes:

Factores económicos

El análisis del archivo de registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero se proporciona más a menudo como un servicio de terceros. La diferencia económica entre estos dos modelos también puede ser una consideración para que una empresa decida cuál comprar.

Qué solución es más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad vista en los sitios web, la profundidad y el tipo de información buscada, y la cantidad de sitios web distintos que necesitan estadísticas.

Independientemente de la solución del proveedor o el método de recopilación de datos empleado, también se debe incluir el costo del análisis y la interpretación de los visitantes de la web. Es decir, el costo de convertir datos sin procesar en información procesable. Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio. Por ejemplo, ¿qué aumento de ingresos o ahorro de costos se puede obtener al analizar los datos de los visitantes de la web?

Métodos híbridos

Algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Mediante el uso de un método híbrido, su objetivo es producir estadísticas más precisas que cualquier método por sí solo. Una de las primeras soluciones híbridas fue producida en 1998 por Rufus Evison.

Geolocalización de visitantes

Con la geolocalización IP, es posible rastrear las ubicaciones de los visitantes. Usando la base de datos de geolocalización IP o API, los visitantes pueden geolocalizarse a nivel de ciudad, región o país.

IP Intelligence, o Internet Protocol Intelligence (IP), es una tecnología que mapea Internet y clasifica las direcciones IP por parámetros tales como ubicación geográfica (país, región, estado, ciudad y código postal), tipo de conexión, proveedor de servicios de Internet (ISP), información de proxy y más. La primera generación de IP Intelligence se denominó geotargeting o tecnología de geolocalización. Las empresas utilizan esta información para la segmentación de la audiencia en línea en aplicaciones tales como publicidad en línea, orientación por comportamiento, localización de contenido (o localización de sitios web), administración de derechos digitales, personalización, detección de fraude en línea, búsqueda localizada, análisis mejorado, administración de tráfico global y distribución de contenido..

Análisis de clics

El análisis de clics, también conocido como Clickstream, es un tipo especial de análisis web que presta especial atención a los clics.

Las herramientas más comunes que utilizan datos de análisis de clics son Similarweb y Alexa Internet (propiedad de Amazon (compañía), que pronto quedará obsoleta).

Por lo general, el análisis de clics se centra en el análisis en el sitio. Un editor de un sitio web utiliza el análisis de clics para determinar el rendimiento de su sitio en particular, con respecto a dónde hacen clic los usuarios del sitio.

Además, el análisis de clics puede ocurrir en tiempo real o en tiempo "irreal", según el tipo de información buscada. Por lo general, los editores de portada en sitios de medios de noticias de alto tráfico querrán monitorear sus páginas en tiempo real para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un marco de tiempo más amplio para ayudarlos a evaluar el desempeño de los escritores, los elementos de diseño o los anuncios, etc.

Los datos sobre los clics se pueden recopilar al menos de dos formas. Idealmente, un clic se "registra" cuando ocurre, y este método requiere alguna funcionalidad que recopile información relevante cuando ocurre el evento. Alternativamente, se puede instituir la suposición de que una vista de página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa vista de página.

Análisis del ciclo de vida del cliente

El análisis del ciclo de vida del cliente es un enfoque de medición centrado en el visitante que cae bajo el paraguas del marketing del ciclo de vida. Las visitas a la página, los clics y otros eventos (como llamadas a API, acceso a servicios de terceros, etc.) están vinculados a un visitante individual en lugar de almacenarse como puntos de datos separados. El análisis del ciclo de vida del cliente intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento de los visitantes y la optimización del sitio web.

Otros metodos

A veces se utilizan otros métodos de recopilación de datos. La detección de paquetes recopila datos mediante la detección del tráfico de red que pasa entre el servidor web y el mundo exterior. La detección de paquetes no implica cambios en las páginas web ni en los servidores web. También es posible integrar análisis web en el propio software del servidor web. Ambos métodos pretenden proporcionar mejores datos en tiempo real que otros métodos.

Analítica web in situ - definiciones

No existen definiciones acordadas a nivel mundial dentro del análisis web, ya que los organismos de la industria han estado tratando de acordar definiciones que sean útiles y definitivas durante algún tiempo. Los principales organismos que han tenido aportes en esta área han sido la IAB (Oficina de Publicidad Interactiva), JICWEBS (Comité Conjunto de la Industria para Estándares Web en el Reino Unido e Irlanda) y la DAA (Asociación de Análisis Digital), conocida formalmente como WAA. (Asociación de análisis web, EE. UU.). Sin embargo, muchos términos se usan de manera consistente de una herramienta de análisis principal a otra, por lo que la siguiente lista, basada en esas convenciones, puede ser un punto de partida útil:

Analítica web fuera del sitio

El análisis web fuera del sitio se basa en análisis de datos abiertos, exploración de redes sociales, participación de voz en propiedades web. Por lo general, se usa para comprender cómo comercializar un sitio mediante la identificación de las palabras clave etiquetadas en este sitio, ya sea de las redes sociales o de otros sitios web.

Mediante el uso de HTTP Referer, los propietarios de páginas web podrán rastrear cuáles son los sitios de referencia que ayudan a atraer tráfico a su propio sitio.

Fuentes comunes de confusión en la analítica web

El problema de los hoteles

El problema del hotel es generalmente el primer problema que encuentra un usuario de analítica web. El problema es que los visitantes únicos de cada día de un mes no suman el mismo total que los visitantes únicos de ese mes. Esto parece ser un problema para un usuario sin experiencia en cualquier software de análisis que esté utilizando. De hecho, es una propiedad simple de las definiciones métricas.

La forma de representar la situación es imaginando un hotel. El hotel dispone de dos habitaciones (Habitación A y Habitación B).

Día 01Día 02Día 03Total
Habitación AJohnJohnMarca2 usuarios únicos
Habitación BMarcaAnaAna2 usuarios únicos
Total222?

Como muestra la tabla, el hotel tiene dos usuarios únicos cada día durante tres días. La suma de los totales con respecto a los días es por tanto seis.

Durante el periodo cada habitación ha tenido dos usuarios únicos. La suma de los totales con respecto a las habitaciones es por tanto cuatro.

En realidad, solo tres visitantes han estado en el hotel durante este período. El problema es que una persona que se queda en una habitación por dos noches se cuenta dos veces si se cuenta una vez cada día, pero solo se cuenta una vez si se mira el total del período. Cualquier software de análisis web los sumará correctamente para el período de tiempo elegido, lo que genera el problema cuando un usuario intenta comparar los totales.

Métodos de análisis web

Problemas con las galletas

Históricamente, los proveedores de soluciones de análisis de etiquetado de páginas han utilizado cookies de terceros enviadas desde el dominio del proveedor en lugar del dominio del sitio web que se navega. Las cookies de terceros pueden manejar visitantes que cruzan varios dominios no relacionados dentro del sitio de la empresa, ya que la cookie siempre es manejada por los servidores del proveedor.

Sin embargo, las cookies de terceros en principio permiten rastrear a un usuario individual a través de los sitios de diferentes empresas, lo que permite que el proveedor de análisis coteje la actividad del usuario en los sitios donde proporcionó información personal con su actividad en otros sitios donde pensó que era anónimo. Aunque las empresas de análisis web niegan haber hecho esto, otras empresas, como las empresas que suministran anuncios publicitarios, lo han hecho. Por lo tanto, las preocupaciones de privacidad sobre las cookies han llevado a una minoría notable de usuarios a bloquear o eliminar las cookies de terceros. En 2005, algunos informes mostraron que alrededor del 28 % de los usuarios de Internet bloqueaban las cookies de terceros y el 22 % las eliminaba al menos una vez al mes. La mayoría de los proveedores de soluciones de etiquetado de páginas ahora se han movido para ofrecer al menos la opción de usar cookies propias (cookies asignadas desde el subdominio del cliente).

Otro problema es la eliminación de cookies. Cuando el análisis web depende de las cookies para identificar visitantes únicos, las estadísticas dependen de una cookie persistente para mantener una identificación de visitante única. Cuando los usuarios eliminan las cookies, normalmente eliminan tanto las cookies propias como las de terceros. Si esto se hace entre interacciones con el sitio, el usuario aparecerá como visitante por primera vez en su siguiente punto de interacción. Sin una identificación de visitante persistente y única, las conversiones, el análisis del flujo de clics y otras métricas que dependen de las actividades de un visitante único a lo largo del tiempo no pueden ser precisas.

Las cookies se utilizan porque las direcciones IP no siempre son únicas para los usuarios y pueden ser compartidas por grandes grupos o servidores proxy. En algunos casos, la dirección IP se combina con el agente de usuario para identificar con mayor precisión a un visitante si las cookies no están disponibles. Sin embargo, esto solo resuelve parcialmente el problema porque, a menudo, los usuarios detrás de un servidor proxy tienen el mismo agente de usuario. Otros métodos de identificación única de un usuario son técnicamente desafiantes y limitarían la audiencia rastreable o se considerarían sospechosos. Las cookies alcanzan el mínimo común denominador sin utilizar tecnologías consideradas spyware.

Métodos de análisis (medición) seguros

Puede ser bueno tener en cuenta que la recopilación de información de terceros está sujeta a las limitaciones de la red y la seguridad aplicada. Los países, los proveedores de servicios y las redes privadas pueden evitar que los datos de visitas al sitio vayan a terceros. Todos los métodos descritos anteriormente (y algunos otros métodos no mencionados aquí, como el muestreo) tienen el problema central de ser vulnerables a la manipulación (tanto inflación como deflación). Esto significa que estos métodos son imprecisos e inseguros (en cualquier modelo razonable de seguridad). Este tema ha sido abordado en varios trabajos,pero hasta la fecha, las soluciones sugeridas en estos documentos siguen siendo teóricas, posiblemente debido a la falta de interés de la comunidad de ingenieros, o debido a la ganancia financiera que la situación actual proporciona a los propietarios de grandes sitios web. Para más detalles, consulte los documentos antes mencionados.