Google dejará de soportar la directiva noindex en robots.txt



A partir del 1 de septiembre, Google dejará de soportar reglas no soportadas e inéditas en el protocolo exclusivo de robots, anunció la compañía en el blog de Google para webmasters. Esto significa que Google ya no soportará los archivos robots.txt con la directiva noindex listada dentro del archivo. Con el fin de mantener un ecosistema saludable y prepararnos para futuras versiones de código abierto, retiramos todo el código que maneja reglas no soportadas e inéditas (como el noindex) el 1 de septiembre de 2019. Para aquellos de ustedes que confiaron en la directiva de indexación noindex en el archivo robots.txt, que controla el rastreo, hay varias opciones alternativas, dijo la compañía.

¿Cuáles son las alternativas? Google enumeró las siguientes opciones, las que probablemente deberías haber usado de todos modos:

(1) Noindex en meta tags de robots: Soportada tanto en las cabeceras de respuesta HTTP como en HTML, la directiva noindex es la forma más efectiva de eliminar URLs del índice cuando se permite el rastreo.

(2) Códigos de estado 404 y 410 HTTP: Ambos códigos de estado significan que la página no existe, por lo que estas URL se eliminarán del índice de Google una vez que se rastreen y procesen.

(3) Protección con contraseña: A menos que el marcado se utilice para indicar contenido de suscripción o de pago, ocultar una página detrás de un inicio de sesión generalmente la eliminará del índice de Google.

(4) No permitido en robots.txt: Los motores de búsqueda sólo pueden indexar las páginas que conocen, por lo que bloquear la página para que no sea rastreada a menudo significa que su contenido no será indexado. Aunque el motor de búsqueda también puede indexar una URL basada en enlaces de otras páginas, sin ver el contenido en sí mismo, nuestro objetivo es hacer que dichas páginas sean menos visibles en el futuro.

(5) Herramienta de eliminación de URL de la Consola de búsqueda: La herramienta es un método rápido y sencillo para eliminar temporalmente una URL de los resultados de búsqueda de Google.

Convertirse en un estándar. Google anunció que la empresa está trabajando para convertir el protocolo de exclusión de robots en un estándar y este es probablemente el primer cambio que se avecina. De hecho, Google publicó ayer su analizador robots.txt como un proyecto de código abierto junto con este anuncio.

¿Por qué está cambiando Google ahora? Google ha estado buscando cambiar esto durante años y con Google presionando para estandarizar el protocolo, ahora puede seguir adelante. Google dijo que analizaron el uso de las reglas de robots.txt. Google se centra en buscar implementaciones no compatibles con el borrador de Internet, como crawl-delay, nofollow y noindex. Dado que estas reglas nunca fueron documentadas por Google, naturalmente, su uso en relación con Googlebot es muy bajo, dijo Google. Estos errores dañan la presencia de los sitios web en los resultados de búsqueda de Google de una manera que no creemos que los webmasters pretendan.

Por qué es esto importante. Lo más importante es asegurarse de que no está utilizando la directiva noindex en el archivo robots.txt. Si es así, usted querrá hacer los cambios sugeridos antes del 1 de septiembre. También, mire si está usando los comandos nofollow o crawl-delay y si es así, mire para usar el verdadero método soportado para esas directivas en el futuro.

Fuente: este post proviene de SEO Ninja, donde puedes consultar el contenido original.
¿Vulnera este post tus derechos? Pincha aquí.
Modificado:
¿Qué te ha parecido esta idea?

Esta idea proviene de:

Y estas son sus últimas ideas publicadas:

Etiquetas: seo

Recomendamos

Relacionado

blog top seo noti google #notigoogle ...

La exclusión de robots dentro del archivo Robots.txt será un standart. Así lo anunció Google en un tweet donde ha hecho público el artículo que explica; cómo después de 25 años se ha hecho imperativa la necesidad de aplicar la especificación del protocolo de exclusión de robots. ¡Vamos a ver de qué se trata! ¿Qué es la exclusión de Robots? Este es un protocolo que se dicta por medio de un comando: ...

blog top seo noti google #notigoogle ...

Esta mañana fueron publicados los nuevos comandos estándares del archivo robots.txt en un artículo oficial de Google webMasters. También tienen sus fundamentos en uno de los lenguajes padres de la programación: C++. Vamos a ver estas novedades y cómo aplicarlas para exprimirles todo el jugo. ¿Listo? Biblioteca de comandos Esta biblioteca ha sido modificada ligeramente y publicada en código abier ...

Sin categoría

El Crawl Budget o Presupuesto de Rastreo es considerado uno de los factores de SEO técnico más importantes y estudiado por los SEOs. Pero, ¿realmente el Crawl Budget tiene tanta relevancia en el posicionamiento de una web? ¿Qué es el Crawl Budget o Presupuesto de Rastreo? El Crawl Budget o Presupuesto de Rastreo es el tiempo o número de solicitudes que nos da Google para revisar el contenido de nu ...

Tecnología e Internet

De acuerdo con un reporte de Motherboard, las invitaciones a los grupos de chat de WhatsApp son indexados por Google. Esto quiere decir que el motor de búsqueda de la gran G puede mostrar en sus resultados enlaces de invitación a chats grupales de WhatsApp, haciendo que sea posible unirse a las conversaciones, incluso a las privadas.  Los grupos de WhatsApp no son tan privados como tú crees  Esto ...

wordpress Linux noticia ...

Un Web crawler indexador web, indizador web o araña web es un programa informático que navega he inspecciona las páginas del World Wide Web (www) por Internet de una manera predeterminada, configurable y automática, realizando acciones programadas en el contenido crawler. Los motores de búsqueda como Google y Yahoo utilizan rastreadores como medio de proporcionar datos de búsqueda, es decir, est ...

#NotiGoogle #SEO #BlogTopSEO ...

En este episodio de la serie Pregúntale a los webmasters de Google; John Mueller responde cómo el buscador elige una URL canónica para indexar una página o entrada en sus resultados de búsqueda. Antes de adentrarnos en este artículo; me gustaría aclarar. El pasado 18 de Junio, Google anunció que ellos establecerán las URL canónicas; esto, en caso de considerarlo necesario o de no ser indicadas en ...

Diseño web home Posicionamiento web

Cuando tiene un negocio es muy importante tener presencia en internet, ya que permitirá obtener diversas ventajas en corto y largo plazo. Es por ello que se debe crear una página web que posicione Google. Para diseñar una página web adecuadamente y lograr que tenga un buen posicionamiento en Google, se deben seguir una serie de pasos para que así las empresas se puedan dar a conocer en el mundo on ...

blog

WordPress es uno de los CMS más populares gracias a su facilidad de uso y una amplia gama de funciones convenientes tanto para profesionales como para los novatos. La mayoría de los sitios web está hecha en WordPress, pero los propietarios a menudo experimentan problemas con el posicionamiento SEO de sus páginas. WordPress es muy apto para la optimización SEO. Además de ofrecer un montón de plugin ...

SEO

Seguro que alguna vez te has preguntado cómo los bots de Google leen tu web, bueno, o cualquier otro motor de búsqueda. Hoy, desde nuestra agencia de marketing digital, hablamos del análisis de Logs, una técnica que nos va a permitir saber exactamente como los motores de búsqueda están rastreando nuestra web. En este post vamos a ver en primera instancia que es un logs y para qué sirve, como obten ...

general seo

Los errores de rastreo en páginas web pueden detectarse y corregirse por medio de las herramientas para webmaster de Google. Es posible que a lo largo del período de vida de un sitio web, se produzcan diversas situaciones que impidan que éste pueda ser correctamente rastreado e indexado por el buscador. En esta guía vamos a aprender qué son los errores de rastreo que se producen en las páginas web ...