comunidades

Configurar Screaming Frog para comprobar una migración

screaming frog
Cuando llega el momento de encargarnos de llevar una migración, la rana se convierte en nuestra mejor amiga y, si aún no lo sabéis, vais a descubrir por qué.

Crawlear la web actual

En este paso debemos crawlear la web en bruto para sacar la máxima información posible, por ejemplo el número de páginas HTML, imágenes, CSS, JS, etc.

Configuration > Spider > Basic

Como en todos los crawleos, primero debemos pensar qué nos interesa rastrear. Si, por ejemplo, no existen páginas en flash (Check SWF), si no hay subdominios (Crawl All Subdomains), no hay páginas otros idiomas (Extract/Crawl hreflang) o no existen páginas en AMP (Extract/Crawl AMP Links), deberemos desmarcar ésas casillas:



Si estamos usando un CDN para servir imágenes o vídeos, desde la versión 11 de Screaming Frog, podemos incluirlos para que se analicen como URLs internas.

Configuration > Spider > Limits / Rendering

En la parte de Limits, por lo general, la configuración por defecto servirá para crawlear casi cualquier web. En la pestaña de Rendering, debemos elegir el tipo de crawleo en función de cómo esté hecha la web.

Seleccionando “Text Only” podremos analizar la mayoría de las webs, pero si la web está hecha en JavaScript (o queremos ver cómo se renderiza), será esta la opción que elijamos.

Configuration > Spider > Advanced

En este listado de opciones, es importante marcar “Always Follow Redirects” para detectar enlaces internos que actualmente redirigen y evitar aún más saltos después de migrar.

También es interesante marcar la casilla “Always Follow Canonicals”, ya que al terminar el crawleo, podremos ver si existen loops de canonical-redirección en el informe “Redirect & Canonical Chains”.

Y, como queremos un análisis en bruto, tenemos que dejar sin marcar las casillas Respect noindex, Respect Canonical y Respect Next/Prev:



Es importante que guardemos el crawleo para poder consultarlo más adelante, así como para exportar los documentos necesarios, como por ejemplo, “internall all” que usaremos en el siguiente paso.

Configuration > Spider > Preferences

En este caso, la configuración por defecto nos vale perfectamente para ver el estado de las metaetiquetas en cuanto a su longitud.

Comprobar el entorno pre

Lo normal es que los entornos de preproducción estén protegidos con usuario y contraseña para que los motores de búsqueda no puedan entrar. Para ello, Screaming tiene una opción en la que podemos incluir estos accesos y poder crawlear la web.

Una vez introducida la URL del pre en la barra superior de Screaming, entramos en la pestaña Configuration > Authentication para elegir la opción “Forms Based”. Haciendo clic en “Add”, nos llevará a un navegador interno donde deberemos añadir el usuario y la contraseña:



El resto de la configuración tiene que ser la misma que la usada en la web actual para poder hacer el mismo análisis del status de las URLs, metaetiquetas, etc.

Para asegurarnos de que las redirecciones se están llevando a cabo de manera correcta, podemos abrir el archivo de Excel “internal all” que nos hemos descargado en el paso anterior y sustituir el dominio de la web por el del pre. Una vez hecho esto, subimos las URLs en “modo lista” y vemos si está todo en orden.

En este paso, es necesario marcar la opción “Always Follow Redirects” para que siga las URLs hasta la final y comprobar si se dan en un solo salto.

Comprobar la nueva web

Cuando la nueva web ya se ha lanzado, volvemos a crawlearla en bruto para obtener la misma información con la que hemos contado desde el principio. Aquí podemos cruzar los datos de la web inicial con los del pre y con los actuales, para confirmar que todo ha salido según lo previsto, por ejemplo:

Las URLs redirigen en un solo salto

Las páginas que deben llevar noindex, contienen la etiqueta

Todas las versiones de la web redirigen a la canónica

Las metaetiquetas están optimizadas

Etc.
Otra comprobación que debemos hacer, es emular el rastreo que haría GoogleBot de la web por si se nos ha escapado algo durante los primeros análisis. Para ello, sólo hay que cambiar el User-Agent dentro de la configuración de Screaming Frog.

Es recomendable hacer 2 crawleos, con el User Agent mobile y el de desktop:



Con estos consejos básicos para configurar la rana ante una migración, ya podremos sacar bastante información y si queréis saber más sobre migraciones, podéis consultar estos 11 tips para una migración web sin sustos.

Fuente: este post proviene de Tecnicas SEO 2019, donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Web content manager

In Internet Republica, we keep growing, and we are looking to expand our team! We constantly look for new talents to join our team. What are we looking for?If you are organized, communicative, proacti ...

Etiquetas:

Recomendamos

Relacionado

Actualidad Google Marketing ...

11 tips para una migración web sin sustos

Cualquier persona relacionada con el sector digital, habrá vivido casi con seguridad, de forma directa o indirecta, la migración de una web, y sabe que puede ser algo bastante tedioso y que según cómo se enfoque, el resultado puede llegar a ser muy negativo de cara al negocio. En una migración, hay infinitos puntos a tener en cuenta, pero voy a centrarme en algunos que suelen pasarse por alto y es ...

todo seo

Auditoría SEO – Los 19 aspectos que deberás revisar para optimizar tu web al 100%

Si quieres aparecer en los primeros puestos de Google, los 2 factores claves para hacerlo son tener un contenido útil y de calidad, además de recibir enlaces de desde otras webs más importantes que la tuya. Pero para que el contenido y los enlaces tenga efecto, antes de nada tienes que optimizar tu web al 100%. Desde nuestra experiencia consideramos claves 19 aspectos para tener optimizada tu web ...

general propuestas

Google Translator Toolkit o cómo traducir varios archivos de cualquier tipo a varios idiomas.

La traducción de nuestras páginas web, documentos o archivos nunca ha sido una tarea sencilla debido al esfuerzo y coste que suele conllevar. Por medio de Google Translator Kit veremos que es mucho más rápido de lo que podíamos imaginar. Podemos retocar traducciones incorrectas o volcar cientos de archivos de distintas procedencias: páginas web, documentos de editor de textos, ficheros de propieda ...

Tutoriales Blogging

Como hacer una página estática fácilmente

Desde hace tiempo habia querido hacer algunas paginas de mi blog un poco más profesional. Había querido hacer unas página estáticas, pero con el poco tiempo que últimamente he tenido, no me alcanza para ponerme a retocar mi plantilla. Las páginas estáticas son; (Según Google) Páginas web donde el contenido no son editables. La información permanece fija en un 95 % de la veces pudiéndose hacer pe ...

DISEÑO WEB Programación Web Herramientas

7 herramientas para descargar páginas web completas

Descargar páginas web completas puede tener múltiples usos. Puede servirnos para trabajar en un diseño web sin necesidad de conectarse a Internet. O para realizar una copia de seguridad en nuestro equipo. También puedes guardar una página web para luego leerla sin conexión. Como vemos las utilidades son muchas y variadas- Quizás simplemente queramos ver el código HTML de una página web. Una opción ...

Diseño web WordPress

El diseño de páginas web. Cómo se crea una web

Hubo un tiempo en que una web se construía desde cero, incluso escribiendo casi todo en lenguaje html. Luego llegaron programas que hacían el trabajo más fácil, pero las páginas seguían siendo muy simples en su funcionamiento, no tenían que interactuar con el usuario, todo era estático y diseñado con tablas. Llegó el nacimiento de la web 2.0 y todo cambió, con lenguaje php que permite a las webs s ...

informática internet ocio ...

El diseño de páginas web. Cómo se crea una web

Hubo un tiempo en que una web se construía desde cero, incluso escribiendo casi todo en lenguaje html. Luego llegaron programas que hacían el trabajo más fácil, pero las páginas seguían siendo muy simples en su funcionamiento, no tenían que interactuar con el usuario, todo era estático y diseñado con tablas. Llegó el nacimiento de la web 2.0 y todo cambió, con lenguaje php que permite a las webs s ...

wordpress Linux noticia ...

¿Cómo crear un Crawler o Spider para la automatización para archivos robot? Parte III

Un Web crawler indexador web, indizador web o araña web es un programa informático que navega he inspecciona las páginas del World Wide Web (www) por Internet de una manera predeterminada, configurable y automática, realizando acciones programadas en el contenido crawler. Los motores de búsqueda como Google y Yahoo utilizan rastreadores como medio de proporcionar datos de búsqueda, es decir, est ...

Sin categoría

¿Qué necesitas aprender para programar en WordPress?

Como ya hemos comentado otras veces, si eres capaz de programar en WordPress y en la web en general, accedes a otra dimensión de posibilidades para tu proyecto online. Imagen de Fotolia - ©Digiclack Esto es así porque saber programar fulmina todas las barreras que te puedas encontrar en el desarrollo de tu proyecto online, ya no dependerás del plugin X para hacer tal cosa o de encontrar el tema Y ...

SEO TODO GOOGLE errores de rastreo ...

Solucionar errores de rastreo en mi blog en Blogger

Mi blog esta en Blogger Este post es continuación de Cómo solucionar errores de rastreo en blogs WordPress.com, por si has entrado aquí por error, la guía de acción es prácticamente diferente. La gran diferencia entre otras cosas entre Blogger y WordPress.com es la posibilidad de toquetear el html de la plantilla, modificar o personalizar el archivo robot, hacer redirecciones 301, cosa que nos fac ...