Quieres tener una guía de una herramienta fundamenta para el SEO: en este post encontraras una Guía para Screaming Frog imprescindible.

Screaming Frog es una herramienta imprescindible para cualquier usuario que quiera analizar en profundida muchos aspectos que afectan al posicionamiento de una web. Como bien dice su nombre se trata de un rastreador que analiza las urls de cualquier sitio web y nos ofrece esa información categorizada.

Para empezar con esta herramienta lo primero que tenemos que hacer es descargárnosla a nuestro dispositivo desde su página web.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Una vez instalado podemos ver su pantalla inicial:

Web_Screaming-Frog Screaming Frog la guia imprescindible

La primera opción que nos encontramos dentro del menú superior es File.

Web_Screaming-Frog Screaming Frog la guia imprescindible

En este apartado podemos abrir archivos desde cualquier lugar de nuestro equipo, abrir cualquier archivo que hayamos usado recientemente e incluso utilizar una configuración que definamos. Desde la opción «crawl» también podemos usar configuraciones anteriores.

La siguiente opción que tenemos en el menú es «Configuration«. Esta opción del menú nos permite configurar como queremos que actúe la araña sobre las urls que analicemos.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Este aparatado lo ampliamos en la siguiente sección.

Configura tu Screaming Frog

Screaming Frog nos ofrece una pestaña donde insertar la url que queramos analizar. Su funcionamiento es fácil y simple, se introduce la url y se da a start. Fácil ¿verdad?.

Web_Screaming-Frog Screaming Frog la guia imprescindible

La araña: Spider.

En esta sección de Screaming Frog lo que configuramos es el tipo de archivo que vamos a rastrear. Como puedes observar en la imagen si no tienes la licencia no se pueden configurar estas opciones.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Aclaremos cada una de las opciones que nos aparecen en esta pestaña.

Basic

Web_Screaming-Frog Screaming Frog la guia imprescindible

La primera de las pestañas ya la hemos visto y es Basic. En esta pestaña nos permite seleccionar el tipo de archivos que queremos rastrear. Como una araña más nos permite rastrear o no los enlaces internos de la web con la opción Follow.

Tenemos también la opción de Crawl Al Subdomains. Con esta opción elegida si encuentra algún subdominio lo tratará como un enlace externo.

También podemos optar por comenzar el rastreo en una URL diferente a la raíz, para ello debemos marcar la opción ‘Crawl Outside of Start Folder’. Existen más opciones que se pueden ver claramente en la imagen de Basic por ello no nos extenderemos en este aspecto.

Posible imagen de las dos opciones:  Si desmarcamos estas opciones Screaming únicamente extraerá estos datos (si una URL tiene canonical por ejemplo nos dirá a dónde apunta); si por el contrario las marcamos, además de extraer esta información rastreará la URL marcada como canonical, Next/Prev o Hreflang.

Limits

Ahora pasaremos a mencionar a Limits. Es la segunda de las pestañas de Spider.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Aquí configuraremos los límites de nuestro rastreo, una opción que pueden ser muy útil en webs muy grandes.

  • Uno: Limit Search Total. Limitamos las URLS que vamos a rastrear en nuestro análisis. Desde luego si es nuestro primer análisis no es recomendable poner una primera limitación.
  • Dos: Limit Search Depth. Como se puede deducir de su traducción nos permite delimitar el nivel de profundidad. Así, el nivel uno nos extrae aquellos enlaces que encuentran a en el primer clic desde la Home. El segundo nivel a dos, etc.
  • Tres: Limit Max URI Length to Crawl. Esta opción nos configura la longitud máxima medida en caracteres de las URLs que vamos a analizar.
  • Cuatro: Limit Max Folder Depth. En esta opción la limitación al realizamos a nivel de directorio.
  • Quinta: Limit Number of Query Strings. Como bien dice su nombre nos establece un límite sobre el  número de strings o lo que es lo mismo: parámetros.

Rendering

Ahora pasaríamos a la pestaña de Rendering que hace referencia al procesamiento de la información: Text Only, ‘Old AJAX Crawling Scheme’ y JavaScript.

Advanced

Advanced: En esta opción nos permite guardar el rastreo con el checklist de Pause on High Memory Usage. Una vez marcado cuando la herramienta llegue a su límite de memoria nos permitirá guardar el rastreo hasta ese momento y continuar posteriormente. Muy útil cuando el tamaño de la web a analizar es muy grande.

Otra opción a resaltar en este apartado es ‘Always Follow Redirects’. Con él marcado podemos conocer …

Preferencies

La última opción Preferences: modificando las opciones de esta pestaña nos generará como un error aquellas que se salgan de las especificadas.

Imprescindible en cualquier web: Robots.txt

Web_Screaming-Frog Screaming Frog la guia imprescindible

Dentro de robots tenemos dos opciones. Setting y Custom.  Empecemos por Settigns:

Web_Screaming-Frog Screaming Frog la guia imprescindible

Existen tres opciones en esta sección: ignorar a robots, mostrar un informe sobre las urls internas bloqueadas y lo mismo para las externas. Ya sabes que estas opciones solo son posibles en la versión de pago, en la gratuita aparecerán bloqueadas y solo podrás ver las urls internas bloqueadas por robots.

La otra opción que podemos utilizar es Custom:

Web_Screaming-Frog Screaming Frog la guia imprescindible

Nos sirve para simular un robots.txt imaginario.

URL Rewriting

Dentro de las funciones avanzadas se encuentra URL rewriting. La cual nos permite reescribir las urls que decidamos mediante las opciones que nos permite esta sección.

Excluimos e incluimos: Include y exclude

Con estas opciones podemos elegir el rastreo que queremos realizar, incluso podemos optar por realizar un rastreo por partes. Para ello es necesario tener unos mínimos conocimientos de expresiones regulares.

Speed

A través de esta copión controlamos la velocidad de rastreo de una web. Esta herramienta es tan potente que podemos hacer una denegación de servicio de la web que estamos analizando, así que hay que tomar precauciones sobre esta cuestión.

Las cabeceras: HTTP header

Antes de explicar esta opción es necesario que conozcas que es el User-Agent. Así que si no lo sabes visita el enlace anterior para salir de dudas. Web_Screaming-Frog Screaming Frog la guia imprescindible

Cómo realizar las búsquedas personalizadas y extracción de datos específicos

Antes mencionábamos las expresiones regulares. En este caso se trata de una opción similar que nos permite establecer una serie de criterios sobre la que delimitar nuestro rastreo, esto nos permite identificar lo que queremos que se incluya en las urls y lo que no.

Mode: Spider, List y SERP

Web_Screaming-Frog Screaming Frog la guia imprescindible

El menu principal de Screaming Frog nos permite cambiar el modo de rastreo de nuestro crawler. En la primera opción llamada Spider la herramienta actúa como una araña, el comportamiento es de salto de Url en url. Comenzará por aquella url que le indiquemos.

Como segunda opción tenemos List. Esta opción nos permite analizar una lista de urls que le indiquemos a la herramienta.

Analizando información rastreada

Web_Screaming-Frog Screaming Frog la guia imprescindible

Primera pestaña: Internal. Las URLs de nuestro proyecto

Web_Screaming-Frog Screaming Frog la guia imprescindible

Internal. En esta primera pestaña Screaming nos ofrece información sobre las urls que ha encontrado en su rastreo.

Web_Screaming-Frog Screaming Frog la guia imprescindibleWeb_Screaming-Frog Screaming Frog la guia imprescindible

¿Cómo obtener los enlaces internos entrantes y los enlaces internos salientes de una URL en concreto?

Una vez realizada la búsqueda dentro de la ventana inferior aparecen una serie de opciones que podemos observar en la siguiente imagen: URL info, Inlinks, Outlinks, Image Info, SERP Snippet, Renderd Paged, View Source.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Con los resultados de esa búsqueda podemos pinchar en una url y con el botón derecho podemos ver las opciones de exportación que nos permite la herramienta para esa url en concreto.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Esta opción nos permite trasladar toda esta información a un Excel para analizarla y ver esos enlaces.

Segunda pestaña: External, enlaces que salen de tu web

Web_Screaming-Frog Screaming Frog la guia imprescindible

Aquí podemos encontrar todos los enlaces externos de la web que estamos analizando. Nos dará la información de los enlaces que salen de nuestra web hacia otros dominios.

Esta panel es igual al anterior y las opciones que nos permite son iguales a las de internal. Un uso recomendable de esta sección es revisar las urls con un código de respuesta diferente al 200, que ya sabemos que es OK. De esta forma podemos encontrar errores 404 u otro tipo de errores en la web analizada.

Tercera pestaña: ¿nuestras urls tienen http o https?

Web_Screaming-Frog Screaming Frog la guia imprescindible

Esta pestaña nos ofrece la información sobre el tipo de protocolo que usan nuestra urls, es decir, nos informa sobre las url que tienen http y las que usan https que ya sabes que es más segura esta segunda opción.

Cuarta pestaña: los famosos códigos de respuesta

Web_Screaming-Frog Screaming Frog la guia imprescindible

Las urls que obtenemos del análisis tienen un código de respuesta. Este código está en la columna Status Code de la herramienta.

Quinta pestaña: URI la sintaxis de nuestras urls

Web_Screaming-Frog Screaming Frog la guia imprescindible

Es una pestaña que nos ofrece información sobre como están escritas las urls. Así podemos clasificarlas en base a estos criterios que nos ofrece Screaming Frog:

Web_Screaming-Frog Screaming Frog la guia imprescindible

Sexta pestaña: los títulos y descripciones

Web_Screaming-Frog Screaming Frog la guia imprescindible

En estos dos apartados la división que realiza la herramienta son iguales:

Web_Screaming-Frog Screaming Frog la guia imprescindible

Podemos ver todas las páginas y su información sobre el title y la description:

  • Se encuentran vacíos.
  • Existe duplicidad comparando con otras páginas internas.
  • Resultan demasiado largos y esto implica que en los resultados de búsqueda no se vean enteros.
  • Pueden ser demasiado cortos.
  • Son iguales  que el encabezado H1.
  • En una sola dirección tenemos varios titles o varias descriptions lo cual no sería correcto. Se clasificarían como múltiples.

Séptima pestaña: los encabezados y las imágenes

Como ya sabemos los encabezados se clasifican por el código html y como vemos en la imagen la información que podemos ver es la siguiente:

Web_Screaming-Frog Screaming Frog la guia imprescindible

Con esta prestación podemos conocer de una manera muy rápida cuales son nuestros encabezados y que información podemos mejorar de cara al SEO en nuestras webs analizadas.

Si nos fijamos en el número tres de la imagen en la sección images, dentro de ésta nos ofrece información sobre aquellas imágenes que pesan más de 100 kb, lo cual nos puede servir para mejorar la carga de nuestras webs.

Octava pestaña: directivas

Por ultimo vamos a ver la opción de directivas.

  • Canonical: URLs que contienen una etiqueta canonical ya sea hacia sí mismas o hacia otra URL
  • Canonicalizadas: URLs que contienen una etiqueta canonical que apunta hacia otra URL diferente.
  • Next/Prev: Contienen estas etiquetas de paginación.
  • Index / Noindex: Contienen dicha etiqueta la cual indica a Google si deseamos que se indexe o no.
  • Follow / Nofollow: Si contienen esta meta tag el cual indica a Google que siga o no los hipervínculos que contiene dicha URL.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Novena pestaña: la profundidad y la arquitectura web

Si observamos bien en la ventana de la derecha aparece la información de la profundidad de web y su arquitectura. Con simplemente ver la siguiente imagen de Screaming se deduce cada una de las informaciones que necesitamos de este aparatado.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Los reportes o informes: exportando información de nuestro análisis.

Para analizar y exportar la información en un excel tenemos la siguientes opción: Bulk export.

«Bulk Export»

“Bulk Export” nos permite exportar de forma masiva en documentos en el formato CSV los informes sobre links entrantes o salientes, imágenes, anchor text, así como personalizar filtros; mientras que en “Reports” accederemos a un resumen del rastreo e informes de errores en distintos parámetros.

Web_Screaming-Frog Screaming Frog la guia imprescindible

Sitemaps

“Sitemaps” nos da la opción de crear un mapa del sitio, y también de sus imágenes. Estas opciones son poco habituales ya, puesto que la mayoría de las herramientas para la gestión de las webs la llevan incluida. Si no es el caso, aquí puedes descargarlos y enviarlos a Google Search Console.

Web_Screaming-Frog Screaming Frog la guia imprescindible

License

“Licence” es el enlace para pagar por la versión “pro” y para introducir la clave una vez nos hemos suscrito.

Help

En “Help”, por último, tenemos una guía de usuario, unas preguntas frecuentes, un contacto de soporte y feedback, una búsqueda y autocheck para actualizaciones de la herramienta, un depurador debug y una página de “Acerca de”. Ayuda que esperamos que no te haga falta usar tras leer este tutorial

 

Reader Interactions

Deja un comentario

Tu dirección de correo electrónico no será publicada.

About David Moya

Apasionado de la Seguridad Informática, aprendiendo en todo momento y profundizando en el mundo web y en el posicionamiento en buscadores.

Share This