Uso de Seoliser para Auditoría de Páginas Web

Clase 7 de 35Curso de Optimización de SEO Técnico

Contenido del curso

Rastreo y accesibilidad

Resumen

Saber qué páginas están siendo bloqueadas para los motores de búsqueda es una tarea crítica en cualquier auditoría SEO. SEOlizer es una herramienta gratuita que emula el proceso de rastreo de Google y permite analizar hasta diez mil URLs sin necesidad de instalar software. A continuación se explica paso a paso cómo utilizarla para verificar la etiqueta meta robots y proteger el presupuesto de rastreo de un sitio web.

¿Qué es SEOlizer y por qué usarla en una auditoría SEO?

SEOlizer replica el comportamiento del algoritmo de rastreo de Google sobre un sitio web. Su principal ventaja es que ofrece un plan completamente gratuito para sitios de hasta diez mil URLs, lo que la convierte en una opción accesible para cualquier proyecto.

Para comenzar a usarla solo es necesario crear una cuenta [0:07]:

  • Ingresar la URL del sitio que se desea auditar.
  • Completar nombre, correo electrónico y número de teléfono para verificar la identidad.
  • Asignar una contraseña y confirmar el registro.

Una vez creada la cuenta, se hace clic en el botón "Empezar a rastrear" (Start Crawl) [1:16]. La herramienta comienza a recorrer automáticamente cada página del sitio. El tiempo de rastreo depende del tamaño del sitio; puede tomar entre diez y quince minutos o incluso más.

¿Cómo interpretar los resultados del rastreo?

Al finalizar el rastreo, el dashboard de SEOlizer presenta dos categorías principales [2:42]:

  • URLs indexables: páginas que Google puede incluir en su índice.
  • URLs no indexables (unindexable): páginas que están siendo excluidas del índice por alguna razón.

Al hacer clic en las URLs no indexables, la herramienta muestra la razón por la que cada página está bloqueada [2:55]. Las causas más comunes incluyen:

  • Código HTTP: errores de servidor o redirecciones.
  • Canonical: la etiqueta canonical apunta a otra URL.
  • robots.txt: el archivo de exclusión impide el acceso.
  • Meta robots: la etiqueta dentro del HTML indica que no debe indexarse.

En el ejemplo del curso, ninguna página estaba bloqueada específicamente por la etiqueta meta robots, lo cual se marcó como correcto en el archivo de auditoría [3:18].

¿Cuándo agregar la etiqueta meta robots con valor noindex?

Existen páginas que no aportan valor al usuario desde los resultados de búsqueda, como la página de contacto. Mantenerlas indexadas consume lo que se conoce como presupuesto de rastreo (crawl budget), es decir, la cantidad de recursos que Google destina a recorrer un sitio en cada visita [3:30].

Para indicar a Google que no indexe determinadas páginas, se utiliza la etiqueta meta robots con el valor noindex. La estructura correcta se encuentra en la documentación oficial de Google Developers [3:50]. No es necesario saber programar; basta con copiar la etiqueta y solicitar su implementación en el código HTML de cada página que deba excluirse.

¿Cómo documentar esta acción en la auditoría?

Dentro del archivo de auditoría se registra de la siguiente forma [4:05]:

  • Estado: necesita optimización.
  • Prioridad: media, porque las páginas no indexadas desperdician presupuesto de rastreo sin generar tráfico útil.
  • Acción necesaria: agregar la etiqueta meta robots noindex en las páginas que no deben aparecer en el índice de Google.
  • Detalle: incluir el listado de URLs afectadas o, si son pocas, agregarlas directamente.
  • Fecha: registrar cuándo se realizó la auditoría.

Con este proceso completado, el sitio queda mejor preparado para que Google concentre sus recursos de rastreo en las páginas que realmente importan. Si has aplicado estos pasos, comparte tu experiencia y cuéntanos cuántas URLs no indexables encontraste en tu propio sitio.