Analíticas web

format_list_bulleted Contenido keyboard_arrow_down
ImprimirCitar

Las analíticas web es la medición, recopilación, análisis y generación de informes de datos web para comprender y optimizar el uso de la web. El análisis web no es solo un proceso para medir el tráfico web, sino que puede usarse como una herramienta para la investigación comercial y de mercado y evaluar y mejorar la efectividad del sitio web. Las aplicaciones de análisis web también pueden ayudar a las empresas a medir los resultados de las campañas publicitarias impresas o de difusión tradicionales. Se puede usar para estimar cómo cambia el tráfico a un sitio web después de lanzar una nueva campaña publicitaria. La analítica web proporciona información sobre el número de visitantes de un sitio web y el número de páginas vistas, o crea perfiles de comportamiento de los usuarios. Ayuda a medir las tendencias de tráfico y popularidad, lo cual es útil para la investigación de mercado.

Pasos básicos del proceso de analítica web

La mayoría de los procesos de análisis web se reducen a cuatro etapas o pasos esenciales, que son:

  • Recopilación de datos: Esta etapa es la recopilación de los datos básicos y elementales. Por lo general, estos datos son recuentos de cosas. El objetivo de esta etapa es recopilar los datos.
  • Procesamiento de datos en información: Esta etapa suele hacer conteos y los hace ratios, aunque todavía puede haber algunos conteos. El objetivo de esta etapa es tomar los datos y convertirlos en información, específicamente en métricas.
  • Desarrollo de KPI: esta etapa se enfoca en usar las proporciones (y conteos) e infundirlas con estrategias comerciales, denominadas indicadores clave de rendimiento (KPI). Muchas veces, los KPI se ocupan de aspectos de conversión, pero no siempre. Depende de la organización.
  • Formulación de la estrategia en línea: esta etapa se ocupa de las metas, los objetivos y los estándares en línea para la organización o el negocio. Estas estrategias generalmente están relacionadas con ganar dinero, ahorrar dinero o aumentar la participación de mercado.

Otra función esencial desarrollada por los analistas para la optimización de los sitios web son los experimentos

  • Experimentos y pruebas: las pruebas A/B son un experimento controlado con dos variantes, en entornos en línea, como el desarrollo web.

El objetivo de las pruebas A/B es identificar y sugerir cambios en las páginas web que aumentan o maximizan el efecto de un resultado de interés probado estadísticamente.

Cada etapa impacta o puede impactar (es decir, impulsa) la etapa anterior o posterior. Entonces, a veces, los datos que están disponibles para la recopilación afectan la estrategia en línea. Otras veces, la estrategia en línea afecta los datos recopilados.

Tecnologías de analítica web

Hay al menos dos categorías de análisis web, análisis web fuera del sitio y en el sitio.

  • El análisis web fuera del sitio se refiere a la medición y el análisis web independientemente de si una persona posee o mantiene un sitio web. Incluye la medición de la audiencia potencial de un sitio web (oportunidad), la participación de la voz (visibilidad) y el rumor (comentarios) que está sucediendo en Internet en su conjunto.
  • El análisis web en el sitio, el más común de los dos, mide el comportamiento de un visitante una vez en un sitio web específico. Esto incluye sus controladores y conversiones; por ejemplo, el grado en que las diferentes páginas de destino están asociadas con las compras en línea. El análisis web en el sitio mide el rendimiento de un sitio web específico en un contexto comercial. Estos datos generalmente se comparan con los indicadores de rendimiento clave para el rendimiento y se utilizan para mejorar la respuesta de la audiencia de un sitio web o una campaña de marketing. Google Analytics y Adobe Analytics son los servicios de análisis web in situ más utilizados; aunque están surgiendo nuevas herramientas que brindan capas adicionales de información, incluidos mapas de calor y reproducción de sesiones.

Históricamente, el análisis web se ha utilizado para referirse a la medición de visitantes en el sitio. Sin embargo, este significado se ha vuelto borroso, principalmente porque los proveedores están produciendo herramientas que abarcan ambas categorías. Muchos proveedores diferentes ofrecen software y servicios de análisis web en el sitio. Hay dos formas técnicas principales de recopilar los datos. El primer y tradicional método, el análisis del archivo de registro del servidor, lee los archivos de registro en los que el servidor web registra las solicitudes de archivos de los navegadores. El segundo método, etiquetado de página, utiliza JavaScript incrustado en la página web para realizar solicitudes de imágenes a un servidor dedicado de análisis de terceros, cada vez que un navegador web muestra una página web o, si lo desea, cuando se produce un clic del mouse. Ambos recopilan datos que pueden procesarse para producir informes de tráfico web.

Fuentes de datos de análisis web

El objetivo fundamental de la analítica web es recopilar y analizar datos relacionados con el tráfico web y los patrones de uso. Los datos provienen principalmente de cuatro fuentes:

  1. Datos de solicitud HTTP directos: provienen directamente de los mensajes de solicitud HTTP (encabezados de solicitud HTTP).
  2. Datos a nivel de red y generados por el servidor asociados con solicitudes HTTP: no forman parte de una solicitud HTTP, pero son necesarios para transmisiones de solicitudes exitosas, por ejemplo, la dirección IP de un solicitante.
  3. Datos de nivel de aplicación enviados con solicitudes HTTP: generados y procesados ​​por programas de nivel de aplicación (como JavaScript, PHP y ASP.Net), incluidas sesiones y referencias. Por lo general, estos son capturados por registros internos en lugar de servicios públicos de análisis web.
  4. Datos externos: se pueden combinar con datos en el sitio para ayudar a aumentar los datos de comportamiento del sitio web descritos anteriormente e interpretar el uso de la web. Por ejemplo, las direcciones IP generalmente se asocian con regiones geográficas y proveedores de servicios de Internet, tasas de clics y apertura de correo electrónico, datos de campañas de correo directo, ventas e historial de clientes potenciales u otros tipos de datos según sea necesario.

Análisis de archivos de registro del servidor web

Los servidores web registran algunas de sus transacciones en un archivo de registro. Pronto se dio cuenta de que estos archivos de registro podían ser leídos por un programa para proporcionar datos sobre la popularidad del sitio web. Así surgió el software de análisis de registros web.

A principios de la década de 1990, las estadísticas de los sitios web consistían principalmente en contar el número de solicitudes de clientes (o visitas) realizadas al servidor web. Inicialmente, este era un método razonable, ya que cada sitio web a menudo constaba de un solo archivo HTML. Sin embargo, con la introducción de imágenes en HTML y sitios web que abarcaban varios archivos HTML, este recuento se volvió menos útil. El primer Log Analyzer comercial verdadero fue lanzado por IPRO en 1994.

A mediados de la década de 1990 se introdujeron dos unidades de medida para medir con mayor precisión la cantidad de actividad humana en los servidores web. Estas fueron páginas vistas y visitas (o sesiones). Una vista de página se definió como una solicitud realizada al servidor web para una página, a diferencia de un gráfico, mientras que una visita se definió como una secuencia de solicitudes de un cliente identificado de forma única que expiró después de una cierta cantidad de inactividad, generalmente 30 minutos..

La aparición de arañas y robots de motores de búsqueda a fines de la década de 1990, junto con proxies web y direcciones IP asignadas dinámicamente para grandes empresas e ISP, hizo que fuera más difícil identificar a los visitantes humanos únicos de un sitio web. Los analizadores de registro respondieron rastreando las visitas de las cookies e ignorando las solicitudes de las arañas conocidas.

El uso extensivo de cachés web también presentó un problema para el análisis de archivos de registro. Si una persona vuelve a visitar una página, la segunda solicitud a menudo se recuperará del caché del navegador y, por lo tanto, el servidor web no recibirá ninguna solicitud. Esto significa que se pierde el camino de la persona a través del sitio. El almacenamiento en caché se puede anular configurando el servidor web, pero esto puede resultar en un rendimiento degradado para el visitante y una mayor carga en los servidores.

Etiquetado de página

Las preocupaciones sobre la precisión del análisis de archivos de registro en presencia de almacenamiento en caché y el deseo de poder realizar análisis web como un servicio subcontratado llevaron al segundo método de recopilación de datos, el etiquetado de páginas o "balizas web".

A mediados de la década de 1990, los contadores web eran comunes: eran imágenes incluidas en una página web que mostraban la cantidad de veces que se había solicitado la imagen, que era una estimación de la cantidad de visitas a esa página. A fines de la década de 1990, este concepto evolucionó para incluir una pequeña imagen invisible en lugar de una visible y, mediante el uso de JavaScript, pasar junto con la solicitud de imagen cierta información sobre la página y el visitante. Esta información luego puede ser procesada de forma remota por una empresa de análisis web y generar estadísticas extensas.

El servicio de analítica web también gestiona el proceso de asignación de una cookie al usuario, que puede identificarle de forma única durante su visita y en visitas posteriores. Las tasas de aceptación de cookies varían significativamente entre sitios web y pueden afectar la calidad de los datos recopilados e informados.

La recopilación de datos del sitio web utilizando un servidor de recopilación de datos de terceros (o incluso un servidor de recopilación de datos interno) requiere una búsqueda de DNS adicional por parte de la computadora del usuario para determinar la dirección IP del servidor de recopilación. En ocasiones, los retrasos en la realización de búsquedas de DNS exitosas o fallidas pueden provocar que no se recopilen datos.

Con la creciente popularidad de las soluciones basadas en Ajax, una alternativa al uso de una imagen invisible es implementar una llamada al servidor desde la página renderizada. En este caso, cuando la página se representa en el navegador web, una parte del código Ajax devolvería la llamada al servidor y pasaría información sobre el cliente que luego puede ser agregada por una empresa de análisis web. De alguna manera, esto tiene fallas por las restricciones del navegador en los servidores a los que se puede contactar con objetos XmlHttpRequest. Además, este método puede conducir a niveles de tráfico informados ligeramente más bajos, ya que el visitante puede detener la carga de la página en medio de la respuesta antes de que se realice la llamada Ajax.

Análisis de archivos de registro frente a etiquetado de páginas

Tanto los programas de análisis de archivos de registro como las soluciones de etiquetado de páginas están disponibles para las empresas que desean realizar análisis web. En algunos casos, la misma empresa de análisis web ofrecerá ambos enfoques. Entonces surge la pregunta de qué método debe elegir una empresa. Hay ventajas y desventajas para cada enfoque.

Ventajas del análisis de archivos de registro

Las principales ventajas del análisis de archivos de registro sobre el etiquetado de páginas son las siguientes:

  • El servidor web normalmente ya produce archivos de registro, por lo que los datos sin procesar ya están disponibles. No se requieren cambios en el sitio web.
  • Los datos están en los propios servidores de la empresa y están en un formato estándar, en lugar de propietario. Esto facilita que una empresa cambie de programa más tarde, use varios programas diferentes y analice datos históricos con un programa nuevo.
  • Los archivos de registro contienen información sobre las visitas de las arañas de los motores de búsqueda, que generalmente se excluyen de las herramientas de análisis mediante el etiquetado de JavaScript. (Es posible que algunos motores de búsqueda ni siquiera ejecuten JavaScript en una página). Aunque estos no deben informarse como parte de la actividad humana, es información útil para la optimización del motor de búsqueda.
  • Los archivos de registro no requieren búsquedas de DNS adicionales ni inicios lentos de TCP. Por lo tanto, no hay llamadas a servidores externos que puedan ralentizar la velocidad de carga de la página o resultar en vistas de página no contadas.
  • El servidor web registra de manera confiable cada transacción que realiza, por ejemplo, entregar documentos PDF y contenido generado por scripts, y no depende de la cooperación de los navegadores de los visitantes.

Ventajas del etiquetado de páginas

Las principales ventajas del etiquetado de páginas sobre el análisis de archivos de registro son las siguientes:

  • El conteo se activa abriendo la página (dado que el cliente web ejecuta los scripts de etiquetas), no solicitándolo al servidor. Si una página se almacena en caché, no se contará en el análisis de registro basado en el servidor. Las páginas almacenadas en caché pueden representar hasta un tercio de todas las vistas de página, lo que puede afectar negativamente a muchas métricas del sitio.
  • Los datos se recopilan a través de un componente ("etiqueta") en la página, generalmente escrito en JavaScript, aunque también se puede usar Java o Flash. Ajax también se puede usar junto con un lenguaje de secuencias de comandos del lado del servidor (como PHP) para manipularlo y (generalmente) almacenarlo en una base de datos, lo que básicamente permite un control completo sobre cómo se representan los datos.
  • El script puede tener acceso a información adicional sobre el cliente web o sobre el usuario, no enviada en la consulta, como los tamaños de pantalla de los visitantes y el precio de los bienes que compraron.
  • El etiquetado de páginas puede informar sobre eventos que no implican una solicitud al servidor web, como interacciones dentro de películas Flash, finalización parcial de formularios, eventos de mouse como onClick, onMouseOver, onFocus, onBlur, etc.
  • El servicio de etiquetado de páginas gestiona el proceso de asignación de cookies a los visitantes; con el análisis de archivos de registro, el servidor debe configurarse para hacer esto.
  • El etiquetado de páginas está disponible para empresas que no tienen acceso a sus propios servidores web.
  • Últimamente, el etiquetado de páginas se ha convertido en un estándar en el análisis web.

Factores económicos

El análisis del archivo de registro casi siempre se realiza internamente. El etiquetado de páginas se puede realizar internamente, pero se proporciona más a menudo como un servicio de terceros. La diferencia económica entre estos dos modelos también puede ser una consideración para que una empresa decida cuál comprar.

  • El análisis del archivo de registro generalmente implica una compra única de software; sin embargo, algunos proveedores están introduciendo el máximo de visitas anuales a la página con costos adicionales para procesar información adicional. Además de las ofertas comerciales, varias herramientas de análisis de archivos de registro de código abierto están disponibles de forma gratuita.
  • Para el análisis de archivos de registro, los datos deben almacenarse y archivarse, lo que a menudo crece rápidamente. Aunque el costo del hardware para hacer esto es mínimo, los gastos generales para un departamento de TI pueden ser considerables.
  • Para el análisis de archivos de registro, es necesario mantener el software, incluidas las actualizaciones y los parches de seguridad.
  • Los proveedores de etiquetado de páginas complejas cobran una tarifa mensual basada en el volumen, es decir, la cantidad de páginas vistas por mes recolectadas.

Qué solución es más barata de implementar depende de la cantidad de experiencia técnica dentro de la empresa, el proveedor elegido, la cantidad de actividad vista en los sitios web, la profundidad y el tipo de información buscada, y la cantidad de sitios web distintos que necesitan estadísticas.

Independientemente de la solución del proveedor o el método de recopilación de datos empleado, también se debe incluir el costo del análisis y la interpretación de los visitantes de la web. Es decir, el costo de convertir datos sin procesar en información procesable. Esto puede deberse al uso de consultores externos, la contratación de un analista web experimentado o la capacitación de una persona interna adecuada. Luego se puede realizar un análisis de costo-beneficio. Por ejemplo, ¿qué aumento de ingresos o ahorro de costos se puede obtener al analizar los datos de los visitantes de la web?

Métodos híbridos

Algunas empresas producen soluciones que recopilan datos a través de archivos de registro y etiquetado de páginas y pueden analizar ambos tipos. Mediante el uso de un método híbrido, su objetivo es producir estadísticas más precisas que cualquier método por sí solo. Una de las primeras soluciones híbridas fue producida en 1998 por Rufus Evison.

Geolocalización de visitantes

Con la geolocalización IP, es posible rastrear las ubicaciones de los visitantes. Usando la base de datos de geolocalización IP o API, los visitantes pueden geolocalizarse a nivel de ciudad, región o país.

IP Intelligence, o Internet Protocol Intelligence (IP), es una tecnología que mapea Internet y clasifica las direcciones IP por parámetros tales como ubicación geográfica (país, región, estado, ciudad y código postal), tipo de conexión, proveedor de servicios de Internet (ISP), información de proxy y más. La primera generación de IP Intelligence se denominó geotargeting o tecnología de geolocalización. Las empresas utilizan esta información para la segmentación de la audiencia en línea en aplicaciones tales como publicidad en línea, orientación por comportamiento, localización de contenido (o localización de sitios web), administración de derechos digitales, personalización, detección de fraude en línea, búsqueda localizada, análisis mejorado, administración de tráfico global y distribución de contenido..

Análisis de clics

El análisis de clics, también conocido como Clickstream, es un tipo especial de análisis web que presta especial atención a los clics.

Las herramientas más comunes que utilizan datos de análisis de clics son Similarweb y Alexa Internet (propiedad de Amazon (compañía), que pronto quedará obsoleta).

Por lo general, el análisis de clics se centra en el análisis en el sitio. Un editor de un sitio web utiliza el análisis de clics para determinar el rendimiento de su sitio en particular, con respecto a dónde hacen clic los usuarios del sitio.

Además, el análisis de clics puede ocurrir en tiempo real o en tiempo "irreal", según el tipo de información buscada. Por lo general, los editores de portada en sitios de medios de noticias de alto tráfico querrán monitorear sus páginas en tiempo real para optimizar el contenido. Los editores, diseñadores u otros tipos de partes interesadas pueden analizar los clics en un marco de tiempo más amplio para ayudarlos a evaluar el desempeño de los escritores, los elementos de diseño o los anuncios, etc.

Los datos sobre los clics se pueden recopilar al menos de dos formas. Idealmente, un clic se "registra" cuando ocurre, y este método requiere alguna funcionalidad que recopile información relevante cuando ocurre el evento. Alternativamente, se puede instituir la suposición de que una vista de página es el resultado de un clic y, por lo tanto, registrar un clic simulado que condujo a esa vista de página.

Análisis del ciclo de vida del cliente

El análisis del ciclo de vida del cliente es un enfoque de medición centrado en el visitante que cae bajo el paraguas del marketing del ciclo de vida. Las visitas a la página, los clics y otros eventos (como llamadas a API, acceso a servicios de terceros, etc.) están vinculados a un visitante individual en lugar de almacenarse como puntos de datos separados. El análisis del ciclo de vida del cliente intenta conectar todos los puntos de datos en un embudo de marketing que puede ofrecer información sobre el comportamiento de los visitantes y la optimización del sitio web.

Otros metodos

A veces se utilizan otros métodos de recopilación de datos. La detección de paquetes recopila datos mediante la detección del tráfico de red que pasa entre el servidor web y el mundo exterior. La detección de paquetes no implica cambios en las páginas web ni en los servidores web. También es posible integrar análisis web en el propio software del servidor web. Ambos métodos pretenden proporcionar mejores datos en tiempo real que otros métodos.

Analítica web in situ - definiciones

No existen definiciones acordadas a nivel mundial dentro del análisis web, ya que los organismos de la industria han estado tratando de acordar definiciones que sean útiles y definitivas durante algún tiempo. Los principales organismos que han tenido aportes en esta área han sido la IAB (Oficina de Publicidad Interactiva), JICWEBS (Comité Conjunto de la Industria para Estándares Web en el Reino Unido e Irlanda) y la DAA (Asociación de Análisis Digital), conocida formalmente como WAA. (Asociación de análisis web, EE. UU.). Sin embargo, muchos términos se usan de manera consistente de una herramienta de análisis principal a otra, por lo que la siguiente lista, basada en esas convenciones, puede ser un punto de partida útil:

  • Tasa de rebote: el porcentaje de visitas que son visitas de una sola página y sin ninguna otra interacción (clics) en esa página. En otras palabras, un solo clic en una sesión en particular se denomina rebote.
  • Ruta de clics: la secuencia cronológica de páginas vistas dentro de una visita o sesión.
  • Hit: una solicitud de un archivo del servidor web. Disponible solo en análisis de registros. El número de visitas recibidas por un sitio web se cita con frecuencia para afirmar su popularidad, pero este número es extremadamente engañoso y sobreestima dramáticamente la popularidad. Una sola página web generalmente consta de múltiples (a menudo docenas) de archivos discretos, cada uno de los cuales se cuenta como un acceso a medida que se descarga la página, por lo que el número de accesos es realmente un número arbitrario que refleja más la complejidad de las páginas individuales en el sitio web que la popularidad real del sitio web. El número total de visitas o páginas vistas proporciona una evaluación más realista y precisa de la popularidad.
  • Vista de página: una solicitud de un archivo o, a veces, un evento como un clic del mouse, que se define como una página en la configuración de la herramienta de análisis web. Una aparición del script que se ejecuta en el etiquetado de páginas. En el análisis de registros, la vista de una sola página puede generar varias visitas, ya que todos los recursos necesarios para ver la página (imágenes, archivos.js y.css) también se solicitan al servidor web.
  • Visitante/visitante único/usuario único- El cliente identificado de forma única que genera vistas de página o visitas dentro de un período de tiempo definido (por ejemplo, día, semana o mes). Un cliente identificado de forma única suele ser una combinación de una máquina (la computadora de escritorio de uno en el trabajo, por ejemplo) y un navegador (Firefox en esa máquina). La identificación generalmente se realiza a través de una cookie persistente que el código de la página del sitio ha colocado en la computadora. Un método más antiguo, utilizado en el análisis de archivos de registro, es la combinación única de la dirección IP de la computadora y la información del agente de usuario (navegador) proporcionada al servidor web por el navegador. Es importante entender que el "Visitante" no es lo mismo que el ser humano sentado frente a la computadora en el momento de la visita, ya que un individuo humano puede usar diferentes computadoras o, en la misma computadora, puede usar diferentes navegadores, y será visto como un visitante diferente en cada circunstancia. Cada vez más, pero aún así, algo raramente, los visitantes son identificados de forma única por Flash LSO (Objeto compartido local), que son menos susceptibles a la aplicación de la privacidad.
  • Visita/sesión- Una visita o sesión se define como una serie de solicitudes de página o, en el caso de las etiquetas, solicitudes de imágenes del mismo cliente identificado de forma única. Un cliente único se identifica comúnmente por una dirección IP o una identificación única que se coloca en la cookie del navegador. Una visita se considera finalizada cuando no se han registrado solicitudes en un cierto número de minutos transcurridos. Muchas herramientas de análisis utilizan un límite de 30 minutos ("tiempo de espera"), pero en algunas herramientas (como Google Analytics) se puede cambiar a otro número de minutos. Los recopiladores de datos analíticos y las herramientas de análisis no tienen una forma confiable de saber si un visitante ha visitado otros sitios entre visitas a la página; una visita se considera una visita siempre que los eventos (páginas vistas, clics, lo que sea que se registre) estén 30 minutos o menos juntos. Tenga en cuenta que una visita puede consistir en una vista de una página o en miles. La sesión de una visita única también se puede extender si el tiempo entre cargas de la página indica que un visitante ha estado viendo las páginas continuamente.
  • Tiempo activo/tiempo de interacción: cantidad promedio de tiempo que los visitantes pasan realmente interactuando con el contenido de una página web, en función de los movimientos del mouse, los clics, el desplazamiento y el desplazamiento. A diferencia de la duración de la sesión y la duración/tiempo en la página vista de la página, esta métrica puede medir con precisión la duración de la participación en la vista final de la página, pero no está disponible en muchas herramientas de análisis o métodos de recopilación de datos.
  • Promedio de profundidad de página/páginas vistas por sesión promedio: la profundidad de página es el "tamaño" aproximado de una visita promedio, que se calcula dividiendo el número total de páginas vistas por el número total de visitas.
  • Duración promedio de la vista de página: cantidad promedio de tiempo que los visitantes pasan en una página promedio del sitio.
  • Clic: "se refiere a una única instancia de un usuario que sigue un hipervínculo desde una página de un sitio a otra".
  • Evento: una acción discreta o clase de acciones que ocurren en un sitio web. Una vista de página es un tipo de evento. Los eventos también encapsulan clics, envíos de formularios, eventos de pulsación de teclas y otras acciones del usuario del lado del cliente.
  • Tasa de salida/% de salida: una estadística aplicada a una página individual, no a un sitio web. El porcentaje de visitas que ven una página donde esa página es la página final vista en la visita.
  • Primera visita/primera sesión: (también denominada 'Visitante único absoluto' en algunas herramientas) Una visita de un cliente identificado de forma única que teóricamente no ha realizado ninguna visita anterior. Dado que la única forma de saber si el cliente identificado de forma única ha estado en el sitio antes es la presencia de una cookie persistente o a través de huellas dactilares digitales que se recibieron en una visita anterior, la etiqueta Primera visita no es confiable si las cookies del sitio han sido eliminado desde su visita anterior.
  • Frecuencia/sesión por única: la frecuencia mide la frecuencia con la que los visitantes visitan un sitio web en un período de tiempo determinado. Se calcula dividiendo el número total de sesiones (o visitas) por el número total de visitantes únicos durante un período de tiempo específico, como un mes o un año. A veces se usa intercambiable con el término "lealtad".
  • Impresión: la definición más común de impresión es una instancia de un anuncio que aparece en una página visitada. Tenga en cuenta que un anuncio puede mostrarse en una página vista debajo del área que realmente se muestra en la pantalla, por lo que la mayoría de las medidas de impresiones no significan necesariamente que un anuncio haya sido visible.
  • Nuevo visitante: un visitante que no ha realizado ninguna visita anterior. Esta definición crea cierta confusión (ver las confusiones comunes a continuación) y, a veces, se sustituye por el análisis de las primeras visitas.
  • Tiempo de visualización de la página/tiempo de visibilidad de la página/duración de la vista de la página: el tiempo que una sola página (o un blog, banner publicitario) está en la pantalla, medido como la diferencia calculada entre el momento de la solicitud de esa página y el tiempo de la siguiente. solicitud grabada. Si no hay una próxima solicitud registrada, el tiempo de visualización de esa instancia de esa página no se incluye en los informes.
  • Visitante repetido: un visitante que ha realizado al menos una visita anterior. El período entre la última visita y la actual se denomina antigüedad del visitante y se mide en días.
  • Visitante recurrente: un visitante único con actividad que consiste en una visita a un sitio durante un período de informe y donde el visitante único visitó el sitio antes del período de informe. El individuo se cuenta solo una vez durante el período del informe.
  • Duración de la sesión/duración de la visita: cantidad promedio de tiempo que los visitantes pasan en el sitio cada vez que lo visitan. Se calcula como la suma total de la duración de todas las sesiones dividida por el número total de sesiones. Esta métrica puede complicarse por el hecho de que los programas de análisis no pueden medir la duración de la vista de la página final.
  • Visita de una sola página/singleton: una visita en la que solo se ve una sola página (esto no es un "rebote").
  • La superposición del sitio es una técnica de informe en la que se superponen estadísticas (clics) o puntos calientes, por ubicación física, en una instantánea visual de la página web.
  • La tasa de clics es una relación entre los usuarios que hacen clic en un enlace específico y el número total de usuarios que ven una página, un correo electrónico o un anuncio. Se usa comúnmente para medir el éxito de una campaña publicitaria en línea para un sitio web en particular, así como la efectividad de las campañas de correo electrónico.

Analítica web fuera del sitio

El análisis web fuera del sitio se basa en análisis de datos abiertos, exploración de redes sociales, participación de voz en propiedades web. Por lo general, se usa para comprender cómo comercializar un sitio mediante la identificación de las palabras clave etiquetadas en este sitio, ya sea de las redes sociales o de otros sitios web.

Mediante el uso de HTTP Referer, los propietarios de páginas web podrán rastrear cuáles son los sitios de referencia que ayudan a atraer tráfico a su propio sitio.

Fuentes comunes de confusión en la analítica web

El problema de los hoteles

El problema del hotel es generalmente el primer problema que encuentra un usuario de analítica web. El problema es que los visitantes únicos de cada día de un mes no suman el mismo total que los visitantes únicos de ese mes. Esto parece ser un problema para un usuario sin experiencia en cualquier software de análisis que esté utilizando. De hecho, es una propiedad simple de las definiciones métricas.

La forma de representar la situación es imaginando un hotel. El hotel dispone de dos habitaciones (Habitación A y Habitación B).

Día 01Día 02Día 03Total
Habitación AJohnJohnMarca2 usuarios únicos
Habitación BMarcaAnaAna2 usuarios únicos
Total222?

Como muestra la tabla, el hotel tiene dos usuarios únicos cada día durante tres días. La suma de los totales con respecto a los días es por tanto seis.

Durante el periodo cada habitación ha tenido dos usuarios únicos. La suma de los totales con respecto a las habitaciones es por tanto cuatro.

En realidad, solo tres visitantes han estado en el hotel durante este período. El problema es que una persona que se queda en una habitación por dos noches se cuenta dos veces si se cuenta una vez cada día, pero solo se cuenta una vez si se mira el total del período. Cualquier software de análisis web los sumará correctamente para el período de tiempo elegido, lo que genera el problema cuando un usuario intenta comparar los totales.

Métodos de análisis web

Problemas con las galletas

Históricamente, los proveedores de soluciones de análisis de etiquetado de páginas han utilizado cookies de terceros enviadas desde el dominio del proveedor en lugar del dominio del sitio web que se navega. Las cookies de terceros pueden manejar visitantes que cruzan varios dominios no relacionados dentro del sitio de la empresa, ya que la cookie siempre es manejada por los servidores del proveedor.

Sin embargo, las cookies de terceros en principio permiten rastrear a un usuario individual a través de los sitios de diferentes empresas, lo que permite que el proveedor de análisis coteje la actividad del usuario en los sitios donde proporcionó información personal con su actividad en otros sitios donde pensó que era anónimo. Aunque las empresas de análisis web niegan haber hecho esto, otras empresas, como las empresas que suministran anuncios publicitarios, lo han hecho. Por lo tanto, las preocupaciones de privacidad sobre las cookies han llevado a una minoría notable de usuarios a bloquear o eliminar las cookies de terceros. En 2005, algunos informes mostraron que alrededor del 28 % de los usuarios de Internet bloqueaban las cookies de terceros y el 22 % las eliminaba al menos una vez al mes. La mayoría de los proveedores de soluciones de etiquetado de páginas ahora se han movido para ofrecer al menos la opción de usar cookies propias (cookies asignadas desde el subdominio del cliente).

Otro problema es la eliminación de cookies. Cuando el análisis web depende de las cookies para identificar visitantes únicos, las estadísticas dependen de una cookie persistente para mantener una identificación de visitante única. Cuando los usuarios eliminan las cookies, normalmente eliminan tanto las cookies propias como las de terceros. Si esto se hace entre interacciones con el sitio, el usuario aparecerá como visitante por primera vez en su siguiente punto de interacción. Sin una identificación de visitante persistente y única, las conversiones, el análisis del flujo de clics y otras métricas que dependen de las actividades de un visitante único a lo largo del tiempo no pueden ser precisas.

Las cookies se utilizan porque las direcciones IP no siempre son únicas para los usuarios y pueden ser compartidas por grandes grupos o servidores proxy. En algunos casos, la dirección IP se combina con el agente de usuario para identificar con mayor precisión a un visitante si las cookies no están disponibles. Sin embargo, esto solo resuelve parcialmente el problema porque, a menudo, los usuarios detrás de un servidor proxy tienen el mismo agente de usuario. Otros métodos de identificación única de un usuario son técnicamente desafiantes y limitarían la audiencia rastreable o se considerarían sospechosos. Las cookies alcanzan el mínimo común denominador sin utilizar tecnologías consideradas spyware.

Métodos de análisis (medición) seguros

Puede ser bueno tener en cuenta que la recopilación de información de terceros está sujeta a las limitaciones de la red y la seguridad aplicada. Los países, los proveedores de servicios y las redes privadas pueden evitar que los datos de visitas al sitio vayan a terceros. Todos los métodos descritos anteriormente (y algunos otros métodos no mencionados aquí, como el muestreo) tienen el problema central de ser vulnerables a la manipulación (tanto inflación como deflación). Esto significa que estos métodos son imprecisos e inseguros (en cualquier modelo razonable de seguridad). Este tema ha sido abordado en varios trabajos,pero hasta la fecha, las soluciones sugeridas en estos documentos siguen siendo teóricas, posiblemente debido a la falta de interés de la comunidad de ingenieros, o debido a la ganancia financiera que la situación actual proporciona a los propietarios de grandes sitios web. Para más detalles, consulte los documentos antes mencionados.

Contenido relacionado

J. Presper Eckert

Clasificación de raíz

Blizzard Entertainment

Más resultados...
Tamaño del texto:
undoredo
format_boldformat_italicformat_underlinedstrikethrough_ssuperscriptsubscriptlink
save