Wanatop

¡Hola! Soy Victor y hoy hablaremos sobre...

Análisis de logs en SEO: ¿Qué es y cómo hacerlo?

17 de febrero de 2024SEO

El análisis de logs de servidores se trata de una de las acciones más interesantes que podemos realizar en un proyecto SEO. ¿A qué nos referimos con analizar los logs desde un punto de vista SEO?

Básicamente, a comprobar cómo se comportan los bots que entran a nuestro sitio web (frecuencia con la que pasan, URLs más rastreadas, etc.).

¿Qué es un log de servidor?

Se trata de un fichero, que se almacena en el servidor, donde queda reflejada toda actividad que se ha producido. Cualquier petición realizada al servidor aparecerá reflejada. Si nos ponemos a analizar un log veremos que hay muchos tipos de bots (Googlebot, SEMrush, Sistrixbot, Bingbot…).

Debemos tener claro que estos datos vienen directamente del servidor, por lo que no se pierde información por el camino.

¿Qué contiene un archivo log?

Este es el aspecto de una línea en un archivo de logs:

66.249.64.239 – – [09/Sep/2020:00:00:01 +0200] «GET /ficha-producto-xyz/ HTTP/1.1» 200 7367 «-» «Mozilla/5.0 (compatible; Googlebot/2.1; +http://www.google.com/bot.html)»

Principales aspectos a tener en cuenta:

  • IP: IP del cliente solicitante (66.249.64.239).
  • Fecha y hora: A qué hora ha pasado ese bot
  • Tipo de petición: Determinar si es GET o POST
  • URL rastreada
  • Protocolo: En este casi HTTP/1.1
  • Código de respuesta: En este caso 200
  • User agent: Googlebot/2.1

Normalmente, tendremos un archivo de logs por cada día.

¿Cómo poder descargarlos?

Dependerá de cada hosting, pero lo habitual es que, conectándote a tu servidor (por ejemplo, usando FileZilla), tengas una carpeta llamada logs donde se vaya acumulando. Desde ahí simplemente hay que darle a descargar y ya tendrás los archivos comprimidos en ZIP.

Filezilla logs

Si no tenemos un programa tipo FileZilla podemos entrar directamente al panel de nuestro hosting y acceder al cPanel o Plesk para poder descargarlos desde allí.

¿Cómo nos puede ayudar en SEO?

Como hemos comentado al inicio del post, el análisis de logs enfocado a SEO es un arma muy poderosa. Podemos analizar cuáles son las urls más rastreadas por Googlebot, si se está perdiendo por zonas que no nos interesan, el código de respuesta de las urls que visita, etc. ¡Vamos, información valiosísima!

En páginas grandes (con millones de urls) es vital conocer en qué “gasta” Googlebot el tiempo en rastrear. Gracias a los logs podríamos descubrir si se está empleando presupuesto de rastreo en secciones de poco impacto de negocio o en urls que devuelve un código de respuesta 404.

¿Cuál es la mejor manera de visualizar un análisis de logs?

Como hemos visto antes, una línea de log tiene bastante información. Imagina eso multiplicado por miles/millones. Lo ideal es utilizar herramientas de visualización de datos y poder plasmarlo en dashboards.

Tenemos distintas opciones para poder realizar este análisis.

  • Herramientas en las que conectas con el servidor y te los “pinta” (Botify, Fandango SEO, OnCrawl, Seolyzer…)
  • Herramientas como Screaming Frog Log Analyzer o SEMrush, donde tú descargas los logs y lo vuelcas en la herramienta (no tan automático como la anterior opción).
  • Una tercera opción más personalizada es crear un dashboard en Data Studio (como nos explica Suganthan Mohanadasan en este magnífico post) o tirar de herramientas como Kibana y Elasticsearch para construir tu propio panel.

Herramientas SEO para analizar logs

Vamos a analizar algunas de las herramientas que pueden ser muy útiles para hacer este tipo de análisis.

Screaming Frog Log Analyzer

Probablemente de las mejores opciones por calidad/precio. Se trata de la versión “log” de la rana, donde tenemos que subir los archivos de manera manual (descargándolos previamente como hemos explicado). La versión gratuita te deja crear un proyecto y cargar 1000 eventos.

Nos da información muy interesante:

  • Verificación de que son bots auténticos y no fakes (por ejemplo, un crawler que emula a Googlebot)
  • Posibilidad de ver por tipo de bot (Googlebot, Bingbot, etc.)
  • Elegir el periodo que se quiere analizar

Lo primero que tenemos que hacer es descargar los logs (como hemos comentado antes) desde nuestro servidor y crear un proyecto dentro de Screaming Frog Log Analyzer.

Una vez lo tenemos creado solo tenemos que cargar los archivos y la herramienta nos pintará los datos.

En la pestaña de overview podemos ver un resumen gráfico de los logs

Screaming Frog Logs

En urls podemos indagar viendo cuáles son las urls más rastreadas, el código de respuesta, etc.

Screaming Frog

TIP: Una cosa muy chula que podemos hacer es descubrir urls huérfanas cruzando un crawl de Screaming Frog Spider con un proyecto de Screaming Frog Log Analyzer.

  • Realizar un crawl y lo guardamos
  • Lo subimos al proyecto que tenemos creado en SF Log y cruzamos los datos
  • De esta manera podremos ver urls que reciben hits de Googlebot, pero que no aparece en el crawl realizado en SF (por lo que no está enlazada correctamente) pinchando en Not in Url data.

 

Además, si combinamos Excel y SFL podemos ver de manera muy visual lo más crawleado por Googlebot. Dentro de directorios, ordenamos por eventos y pintamos luego el gráfico en Excel.

Análisis logs directorios

Semrush Log File Analyzer

Si tienes la suite de SEMrush puedes hacer uso de su sección de análisis de logs. No es un apartado muy conocido, pero nos da datos interesantes. Un punto negativo con respecto a Screaming Frog es que no te deja subir los archivos comprimidos.

Podemos observar, de manera gráfica, los hits por tipo de bot, código de respuesta y tipo de archivo.

Semrush Log Analyzer

Además, podemos ver el listado de hits por página, tipo de archivo por el bot que hayamos elegido.

Semrush Logs

Seolyzer

Seolyzer comenzó siendo gratuita para pasar a ser actualmente freemium. Podemos cargar hasta 10000 urls de manera gratuita.

Seolyzer

Nos permite realizar bastantes análisis, comparando http vs. https, desktop vs mobile… además de, por supuesto, ver las urls más rastreadas por Googlebot.

Seolyzer

Nos da la opción de subir los archivos a mano o conectar a nuestro servidor y que sea automático (algo mucho más cómodo y operativo). Cada vez van metiendo nuevas

Fandango SEO

Fandango SEO se trata de un crawl en la nube (cómo por ejemplo Oncrawl) creado por el SEO Víctor Pérez. Tiene un apartado de logs muy interesante donde podemos subir los archivos a mano o conectar con nuestro servidor para que cada día se actualice. Nos permite poder ver analizar los datos por segmentos, por lo que podemos ver los logs, por ejemplo, de un clúster en concreto que haya configurado previamente.

Fandango SEO logs

En definitiva, trabajar con logs debe verse como un análisis muy interesante y complementario, ya que nos puede ayudar a descubrir cosas que de otra forma no podríamos en herramientas como Google Analytics o Search Console.

¿Y tú? ¿También analizas los logs en tu web?

Víctor BerroyaVíctor Berroya, Especialista SEO.
Zaragozano, cosecha del 86 y dedicado al SEO desde 2013. Tras pasar por distintas agencias, donde fui adquiriendo experiencia en las distintas facetas del marketing online, aterricé en Wanatop, donde combino roles de SEO y management. En el SEO no existen los trucos: estrategia y mucho trabajo son la base para generar negocio. Me encanta la formación, escuchar música en mi tocadiscos y el deporte.
Conoce más de Víctor Berroya