Una de las causas principales por las que un sitio web no aparece en google es porque está siendo bloqueado a través del archivo robots.txt.
El archivo robots.txt, es un archivo de texto que se utiliza para comunicarnos con Google y especificar los directorios a los que no queremos que entre (porque puede ser un folder con información privada).
Puede pasar que por error o desconocimiento, bloqueemos el acceso a todo el sitio web.
Para encontrar el archivo del robots.txt, colocar después del dominio/robots.txt
Se encontrarán algunas opciones:
-
Allow= Permitir
-
Disallow= Bloquear
- Se bloquean las páginas que no son importantes para que las personas las puedan ver en el buscador: no queremos que Google entre ahí.
OJO: la opción Disallow: / BLOQUEA todo nuestro sitio.
- Otras opciones:
Disallow: /imagenes/ (le dice a Google, no entres a la carpeta imágenes)
La opción Allow sirve para crear una excepción; por ejemplo:
-
Disallow: /imágenes/ (No entres a carpeta imágenes)
-
Allow: /imágenes/2020/ (Puedes entrar sólo a la subcarpeta 2020 que está dentro de la carpeta imágenes). Sirve para bloquear años anteriores.
Ten cuidado con la opción Noindex: porque a partir del 2020 Google dice que no aceptará esta opción dentro del robots.txt. Esto significa no indexar.
Registrar información para la auditoría en nuestro Checklist de SEO técnico:
¿Está bloqueando alguna ruta importante?
¿Se necesita bloquear alguna ruta?
- En este ejemplo, todo lo que está bloqueado son cosas que genera por defecto el sistema de e-commerce y no son relevantes.
¿Quieres ver más aportes, preguntas y respuestas de la comunidad?