SEO: más que robots y palabras clave

1

Auditoría de SEO Técnico: Identificación y Solución de Problemas

2

SEO Técnico: Mejora el Tráfico Orgánico de tu Sitio Web

3

SEO Técnico: Optimización para Motores de Búsqueda

4

Auditoría Técnica de SEO: Rastreo, Indexación y Ranking en Google

Rastreo y accesibilidad

5

Checklist de Auditoría SEO Técnico para eCommerce

6

Auditoría de archivos robots.txt para SEO y visibilidad en Google

7

Uso de Seoliser para Auditoría de Páginas Web

8

Creación y gestión de mapas de sitio XML para SEO eficaz

9

Auditoría y Optimización de Certificados SSL en Sitios Web

10

Redirecciones y configuraciones HTTPS en sitios web

11

Solución de Contenidos Duplicados con Etiqueta Canonical

12

Códigos de Respuesta HTTP y su Impacto en SEO Técnico

Arquitectura del sitio web

13

Optimización de URLs y migas de pan en arquitectura web

14

Buenas prácticas para scroll infinito y paginación web

15

Optimización de la Profundidad de Navegación Web

16

Optimización Semántica del HTML en Sitios Web

Elementos técnicos en contenidos

17

Optimización Técnica On Page de Contenidos Web

18

Optimización de Metatítulos en SEO Técnico

19

Optimización de Meta Descripciones y Meta Keywords para SEO

20

Optimización de Títulos H1 para SEO Efectivo

21

Optimización de Contenidos Web: Auditoría Técnica y Recomendaciones

22

Auditoría de Textos Alternativos en Imágenes Web

Velocidad de carga

23

Auditoría de Velocidad de Carga en Sitios Web

24

Medición y Optimización de Velocidad de Carga Web

25

Optimización de Caché del Navegador en Sitios Web

26

Optimización de Imágenes y Uso de CDN para Mejorar Velocidad Web

27

Optimización de CSS y JavaScript para mejorar velocidad web

Microformatos y schema.org

28

Implementación de Microformatos para SEO sin Programación

29

Creación y auditoría de microformatos para SEO en sitios web

Optimización Multi-idioma y/o Multi-país

30

Implementación de la etiqueta hreflang para SEO internacional

SEO para sitios en JavaScript

31

Optimización SEO para Sitios Web en JavaScript

32

Renderizado de Sitios Web en JavaScript para SEO Técnico

33

Optimización del DOM para Sitios Web en JavaScript

Conclusiones

34

Conceptos Clave de SEO y Optimización Web

35

Auditoría de SEO Técnico: Rastreo, Accesibilidad y Velocidad

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Uso de Seoliser para Auditoría de Páginas Web

7/35
Recursos

¿Cómo auditar el bloqueo de páginas importantes en tu sitio web?

Emplear herramientas efectivas de análisis puede marcar una diferencia significativa en el rendimiento SEO de un sitio web. En este contexto, Seoliser se presenta como un recurso invaluable con la capacidad de emular el algoritmo de Google para el rastreo de páginas. De manera gratuita hasta diez mil URLs, es crítica para cualquier experto en SEO que desee optimizar su sitio.

¿Cómo registrarse y comenzar a usar Seoliser?

Comenzar con Seoliser es un proceso sencillo y amigable. A continuación, los pasos básicos para empezar:

  1. Registro: Debes crear una cuenta en Seoliser. Para ello, introduce la URL del sitio web que deseas analizar. Además, proporciona tus datos personales como nombre, número de teléfono y un correo electrónico, seguido de la asignación de una contraseña.
  2. Confirmación: Una vez registrados, nos solicita confirmar la cuenta para proceder con el rastreo.
  3. Inicio del análisis: Da clic en "Empezar a rastrear" (o "Start Crawl" en inglés) para que la herramienta comience el rastreo de las páginas dentro del sitio web.

¿Qué hacer mientras Seoliser realiza el rastreo?

El proceso de rastreo puede extenderse desde unos pocos minutos hasta más de quince, dependiendo del tamaño del sitio. Durante este tiempo, es esencial mantener la herramienta trabajando sin interrupciones. Seoliser ofrece un entorno en el que es posible detener el rastreo si es necesario o dejarlo correr para obtener un análisis completo.

¿Cómo interpretar los resultados del rastreo?

Al finalizar el rastreo, Seoliser presenta los resultados en su panel de control o "dashboard". Los aspectos más relevantes a considerar incluyen:

  • URLs indexables y no indexables: Observa qué páginas se están indexando y cuáles no, comprendiendo las razones.
  • Razones de no indexación: Puede surgir por códigos HTTP, configuraciones "canonical" o el archivo "robots.txt". La información que ofrece es crucial para identificar problemáticas ocultas en el sitio.

¿Qué acciones tomar para páginas no relevantes o indeseadas?

Para aquellas páginas que no deberían ser indexadas, es vital el uso de la etiqueta meta robots con el valor noindex. Aquí se detalla el proceso para optimizar tal implementación:

¿Cómo encontrar la documentación adecuada de Google?

Usualmente, no es necesario saber programar para incorporar la etiqueta meta robots:

  1. Buscar documentación: Es simple buscar en Google "meta robots Google Developers" para acceder a la estructura y documentación oficial de Google.
  2. Integración de la etiqueta: Una vez asegurado de qué páginas no deseas indexar, la documentación te guiará sobre la forma correcta de añadírsela al código del sitio.

¿Qué beneficios trae optimizar estas páginas?

Optimizar y gestionar correctamente el presupuesto de rastreo, evita que Google se enfoque en páginas irrelevantes. Esto maximiza la visibilidad de aquellas que sí aportan valor al sitio y a sus usuarios. Algunos pasos recomendados incluyen:

  • Evaluar las páginas existentes: Realiza un inventario de todas las URLs y determina cuál debe llevar la etiqueta noindex.
  • Registro de acciones: Documenta todas las acciones tomadas, incluyendo la fecha, para un seguimiento preciso de las mejoras.

En el mundo del SEO, la auditoría y el uso de herramientas como Seoliser son esenciales para garantizar la óptima funcionalidad y posicionamiento de un sitio web. Con la información adecuada, estás en camino de perfeccionar tu estrategia de SEO. ¡Continúa explorando y perfeccionando tus habilidades!

Aportes 40

Preguntas 41

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

No tenia ni idea que esto existe y que puedo mejorar la posición de mi web yo solito, este curso me abre la mente a un nuevo lugar.

Gracias Prof.Alejandro y eqp Platzi

Cuando encuentro páginas no relevantes para las personas y debería bloquearlas de indexación utilizo la etiqueta

<noindex>

Si utilizan wordpress y el plugin de** Yoast** este tiene la opción de agregarla sin necesidad de ingresar código, ver blog post de Yoast donde explican: Indexing in Yoast SEO: Show x in search results?

Al configurar el plugin deben hacer el ajuste en la opción de Apariencia, en “Content Types” en esta sección puede uno realizar los ajustes para las Entradas, Paginas, Categorías, Etiquetas

  • (Tags)

Y al momento de escribir una entrada, pagina u otro tipo de contenido y necesito modificarle la condición como en el caso la configuración predeterminada según la imagen anterior del ejemplo esta activo para que se indexe o se muestre ante los resultados de búsqueda y se de el caso que quiero que ese post o página en particular no se indexe en la edición del mismo me voy a la opción de Yoast en avanzado y selecciono manual la opción a No Index, les dejo un pantallazo guía

La otra opción es si lo realizas con código siguiendo los lineamientos con el post de desarrolladores de Google

donde en la sección de <head> hay que insertar la etiqueta

<!DOCTYPE html>
<html><head>
<meta name="robots" content="noindex" />
(…)
</head>
<body>(…)</body>
</html>

Para auditar si se están bloqueando páginas importantes, se puede utilizar la herramienta https://seolyzer.io/

  • Emula el algoritmo de google para el rastreo del sitio.

  • Además permite rastrear un sitio web de hasta 10 mil URL gratis.

Esta herramienta no me deja verificar mi cuenta y en el chat ni contestan.

Cual es la diferencia en usar robots.txt y el tag robots ? entiendo que los dos sirven para no indexar la pagina pero entonces cuando debería usar uno y cuando usar el otro ?

Una genial herramienta que me ha servido mucho es screaming flog.

En marzo 2022, en el sitio se Soelyzer escribí en el chat a Oliver de Seolyzer pidiendo que me diera acceso con mi número de celular (con lada). Me respondió desde su correo de Gmail y así pude usar la plataforma.

Una herramienta útil que encontré recientemente es seobility, tiene un informe muy completo de varios aspectos de este curso. Seolyzer no funciona 😦 .

el de Neil Patel también funciona

¿Cual es la diferencia entre robots.txt y la etiqueta metarobots?

Nice

Buenísimo, ver el video me tomó 5 min, aplicarlo a mi web, más de una hora jeje.

Buenas tardes! Alejandro! como estas? en lugar de utilizar SEOLYZER q no me permite usarlo mas en free trial, se puede ver las paginas indexadas y no indexadas desde GSC? del sitio de mi cliente? GSC: Google search console Gracias!
PEro si en el video pasado dijo que la etiqueta noindex ya no va en el robots ¿QUÉEE ESTÁ PASANDO ENTONCES, se le fue o quéso????
Parece que es un buen trabajo: ![](https://static.platzi.com/media/user_upload/upload-d8923321-74d9-4141-b546-cb7bd152e51d.png)
Pero ahora es pago, y caro.
Abril/2025 el sitio <https://seolyzer.io/> no sirve, alternativca es href: https://app.ahrefs.com/![](https://static.platzi.com/media/user_upload/upload-c4668451-cbc8-471a-911f-d26790861f2b.png)
Estaba corriendo el seolyser y me apareció esto en rojo debería no indexarlas con el robots?![]()![](https://drive.google.com/file/d/1wSp74Ljx3UIdIcy_l0nfQKup6xkgYduM/view?usp=sharing)
buenas tardes, a mi me aparecen muchas paginas bloqueadas por meta robots
esta herramienta se encuentra desactualizada, no me permite restablecer la contraseña.
ya en mis clase no veo los recursos de las herramientas
Tengo una duda, ¿el sitio que podemos analizar con SEOLYZER tiene que ser de nuestra propiedad? Lo digo por lo del numero, pensaba que podía ser un sitio aleatorio.
Hay alguna otra pagina diferente a Seolyzer? No me deja verificar mi cuenta. Gracias.

Otra página que nos puede servir para este examen es https://spotibo.com/seo-analyzer

Hola Compañeros me surge una duda, la herramienta que usamos nos brindaba cierta información, entre ellas el active page, el caso es que el sitio al que le estoy haciendo auditoria todas sus url indexadas tienen una Xen la parte de active page, alguien podría explicarme que significa…

Este curso esta genial, no concia esa pagina de seo 😮

El link : https://seolyzer.io/

Y en el caso de que tenga no indexadas por la etiqueta meta robots, que se debe hacer?

El profesor menciono que las paginas que no necesitan ser indexadas nos quitan presupuesto de rastreo, como es eso? eso significaría que si es de prioridad importante decirle a google que no las rastree, no es cierto?

Este curso esta WOW!!! Increible!

Mi sitio web es hecho con WordPress y existen plugins que me ayudan con el SEO sin embargo es muy importante conocer todo el aspecto técnico que estamos viendo en este curso.

x-robots-tag azul y x-robots-tag en rojo,

Excelente, gracias Profesor

Woowwww ni idea de eso gracias profesor

Hola. En el caso de que el resultado me arroje solo una URL crawled, a que se debe?.

La pagina no me envía el código para confirmación

MMMMM el profe usadno un mail de *Proton mail
Veo que eres un hombre de cultura

Bueno , vamos bien con esto

Hola !

Tengo una duda. ¿Se puede hacer el bloqueo de una página con el archivo robots.txt y también con la etiqueta meta robots ? Es decir, cumplen la misma funciones de no mostrarla en el buscador ¿Verdad?. La diferencias es que con el archivo robots.txt el buscador de google si la tiene en cuenta (clasifica/indexa/gasta presupuesto) y con la etiqueta meta robots no ?

La herramienta me dice que el sitio no puede ser analizado ¿Por qué puede suceder eso?

me da sueño 😦 pero aprendi mucho