Google dice que bloquear ciertos recursos externos está bien

Google dice que bloquear ciertos recursos externos está bien

marzo 30, 2020 0 Por admin


Durante las últimas horas de la oficina de SEO de JavaScript, Martin Splitt de Google respondió una pregunta sobre el bloqueo de recursos externos de JS y CSS. La pregunta era si bloquear recursos daría como resultado la pérdida de la clasificación de un sitio.

Sin embargo, hubo una arruga en la pregunta que se hizo …

JavaScript y CSS bloqueados pueden afectar las clasificaciones

El bloqueo de archivos JavaScript y CSS puede causar problemas de calificación en ciertas situaciones. Una razón es que Google necesita algunos de estos archivos para mostrar la página web y determinar si es compatible con dispositivos móviles.

Una página oficial de desarrolladores de Google dice esto:

"Para una representación e indexación óptimas, siempre permita que Googlebot acceda a los archivos de JavaScript, CSS e imágenes utilizados por su sitio web para que Googlebot pueda ver su sitio como un usuario promedio.

Si el archivo robots.txt en su sitio no permite la exploración de estos activos, esto afecta directamente la calidad de la representación e indexación de su contenido por nuestros algoritmos. Esto puede conducir a clasificaciones subóptimas. "

Bloqueo de JavaScript y CSS externo

El interlocutor tiene una razón válida para preocuparse por cómo Google podría responder al bloqueo de recursos externos.

La cuestión:

"Si usa robots.txt para bloquear JS o CSS en archivos JS externos / archivos CSS en otro dominio o si otro dominio los bloquea, el usuario verá cosas diferentes de Googlebot, ¿verdad?

¿Google desconfiaría de este tipo de página y los disminuiría? "

Martin Splitt de Google respondió con confianza:

"No, no disminuiremos nada. No es camuflaje. Camuflar con mucha precisión significa engañar al usuario.

No es porque no podamos ver el contenido que está engañando al usuario. "

El camuflaje es un truco que los spammers usan para mostrar un conjunto de contenido a Google con el fin de engañar a Google para clasificarlo y mostrar una página web completamente diferente para los usuarios, como una página web cargada de virus o spam.

El enmascaramiento también es una forma de evitar que Google rastree URL que los editores no quieren que Google vea, como los enlaces de afiliados.

La respuesta de Martin proviene de la administración sobre si el bloqueo de recursos externos se considerará camuflaje y su respuesta es no.

Cómo congelar recursos externos puede ser problemático

Martin continúa describiendo cómo bloquear recursos externos puede convertirse en un problema:

"Todavía es potencialmente problemático si su contenido solo aparece cuando podemos recuperar estos recursos y no vemos el contenido en el HTML representado porque está bloqueado por robots.txt.

Entonces no podemos indexarlo. Si falta contenido, no podemos indexarlo. "

Las herramientas de prueba de Google revelarán problemas

Martin continúa mostrando cómo un editor puede diagnosticar si el bloqueo de recursos es problemático.

"Por lo tanto, realmente vale la pena probar nuestras herramientas de prueba para ver si el contenido que desea usar para ver en la página es realmente visible en la página, incluso si se pueden robar algunos recursos de JavaScript o CSS.

Pero en general, robar recursos de JavaScript o CSS no es en sí un problema. Esto puede ser un problema si no podemos ver el contenido, pero es bueno desde el punto de vista del camuflaje, no es camuflaje. "

Aclaró además:

"Si JavaScript carga el contenido y no podemos cargar este JavaScript porque está robotizado, no lo veremos y esto puede ser problemático. Pero si esto es una mejora como un cuadro de chat o un widget de comentarios … así que está bien ".

El editor hizo una pregunta capciosa.

Esta es una respuesta interesante porque es correcto bloquear los recursos externos asociados con un cuadro de discusión o un widget de comentarios. Puede ser útil bloquear estos recursos, por ejemplo, si ayuda a acelerar la representación del sitio para Google, pero …

Pero hay una pequeña arruga en la pregunta que se hizo: No puede bloquear recursos externos (en otro dominio) usando robots.txt.

La pregunta original tenía dos partes.

Aquí está la primera parte problemática:

"Si usa robots.txt para bloquear JS o CSS en archivos JS externos / archivos CSS en otro dominio …"

Esta parte de la pregunta es imposible de hacer con Robots.txt.

La página de desarrollador de Google menciona este tema con respecto a un archivo robots.txt:

"Es válido para todos los archivos en todos los subdirectorios en el mismo host, protocolo y número de puerto".

Lo que se ha pasado por alto sobre esta pregunta es que un archivo robots.txt solo usa URL relativas, no URL absolutas (excepto la ubicación de la ubicación) ; un mapa del sitio).

Una URL relativa significa que la URL es "relativa" a la página con el enlace.

En un archivo HTACCESS, todas las URL se ven así:

/ archivo-1 / ejemplo

Y así es como se ve una URL absoluta:

https://www.example.com

Por lo tanto, si no puede usar una URL absoluta en el archivo robots.txt, no puede bloquear un recurso externo con un archivo robots.txt.

La segunda parte de la pregunta es técnicamente correcta:

"… O si otro dominio los bloquea, entonces el usuario verá cosas diferentes de Googlebot, ¿verdad? ¿Google desconfiaría de este tipo de página y los ubicaría en la parte inferior?"

Los recursos externos a menudo están bloqueados por otros sitios. La pregunta y la respuesta, por lo tanto, tienen más sentido en esta dirección.

Martin Splitt dijo que bloquear estos recursos externos no es un encubrimiento. Esta afirmación es cierta si no está utilizando Robots.txt.

A eso probablemente se refería Martin, pero …

Pero la pregunta era específicamente sobre robots.txt.

En el mundo real, si desea bloquear recursos externos con un archivo robots.txt, debe usar camuflaje.

Mira las horas de oficina de SEO de Google JavaScript aquí: