SEO: más que robots y palabras clave

1

Auditoría de SEO Técnico: Identificación y Solución de Problemas

2

SEO Técnico: Mejora el Tráfico Orgánico de tu Sitio Web

3

SEO Técnico: Optimización para Motores de Búsqueda

4

Auditoría Técnica de SEO: Rastreo, Indexación y Ranking en Google

Rastreo y accesibilidad

5

Checklist de Auditoría SEO Técnico para eCommerce

6

Auditoría de archivos robots.txt para SEO y visibilidad en Google

7

Uso de Seoliser para Auditoría de Páginas Web

8

Creación y gestión de mapas de sitio XML para SEO eficaz

9

Auditoría y Optimización de Certificados SSL en Sitios Web

10

Redirecciones y configuraciones HTTPS en sitios web

11

Solución de Contenidos Duplicados con Etiqueta Canonical

12

Códigos de Respuesta HTTP y su Impacto en SEO Técnico

Arquitectura del sitio web

13

Optimización de URLs y migas de pan en arquitectura web

14

Buenas prácticas para scroll infinito y paginación web

15

Optimización de la Profundidad de Navegación Web

16

Optimización Semántica del HTML en Sitios Web

Elementos técnicos en contenidos

17

Optimización Técnica On Page de Contenidos Web

18

Optimización de Metatítulos en SEO Técnico

19

Optimización de Meta Descripciones y Meta Keywords para SEO

20

Optimización de Títulos H1 para SEO Efectivo

21

Optimización de Contenidos Web: Auditoría Técnica y Recomendaciones

22

Auditoría de Textos Alternativos en Imágenes Web

Velocidad de carga

23

Auditoría de Velocidad de Carga en Sitios Web

24

Medición y Optimización de Velocidad de Carga Web

25

Optimización de Caché del Navegador en Sitios Web

26

Optimización de Imágenes y Uso de CDN para Mejorar Velocidad Web

27

Optimización de CSS y JavaScript para mejorar velocidad web

Microformatos y schema.org

28

Implementación de Microformatos para SEO sin Programación

29

Creación y auditoría de microformatos para SEO en sitios web

Optimización Multi-idioma y/o Multi-país

30

Implementación de la etiqueta hreflang para SEO internacional

SEO para sitios en JavaScript

31

Optimización SEO para Sitios Web en JavaScript

32

Renderizado de Sitios Web en JavaScript para SEO Técnico

33

Optimización del DOM para Sitios Web en JavaScript

Conclusiones

34

Conceptos Clave de SEO y Optimización Web

35

Auditoría de SEO Técnico: Rastreo, Accesibilidad y Velocidad

No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Creación y gestión de mapas de sitio XML para SEO eficaz

8/35
Recursos

¿Por qué es importante un mapa de sitio XML en SEO?

El mundo del SEO es vasto y está lleno de herramientas y técnicas que pueden optimizar la visibilidad de un sitio web en los motores de búsqueda. Uno de estos elementos cruciales es el mapa de sitio XML. Este archivo permite a los motores de búsqueda como Google rastrear y comprender mejor la estructura de tu sitio web, facilitando la identificación de todas las URLs importantes y asegurando que estas sean indexadas correctamente. Es como entregarle a Google un mapa detallado de tu ciudad, optimizando el tiempo y recursos en su rastreo.

¿Cómo encontrar y validar un mapa de sitio XML?

Ubicar tu mapa de sitio XML es el primer paso para asegurarte de que todas las URLs de tu sitio sean accesibles.

  1. Ruta estándar: Generalmente se encuentra agregando /sitemap.xml al final del dominio del sitio. Por ejemplo, www.tusitio.com/sitemap.xml.
  2. Archivo robots.txt: Otra ubicación común es dentro del archivo robots.txt. Allí podrás encontrar una línea que indique la dirección del mapa de sitio, usualmente precedida por sitemap:.

Una vez localizado, es crucial verificar que todas las URLs importantes están incluidas. Aquí es donde entran herramientas como Screaming Frog, que puede ayudarte a identificar aquellas que aún no están en tu mapa.

¿Cómo usar Screaming Frog para verificar el mapa de sitio?

Screaming Frog es una herramienta potente y esencial para auditar y optimizar un sitio web:

  • Instalación y uso: Descarga e instala Screaming Frog de manera sencilla. La versión gratuita permite rastrear hasta 500 URLs.
  • Rastreo del sitio: Pega la URL de tu sitio y comienza el rastreo. La herramienta te proporcionará un listado de URLs.
  • Verificación: En la pestaña Sitemaps, puedes ver todas las URLs que no están en el mapa de sitio. Exporta este listado a Excel y comienza a trabajar en su inclusión.

¿Cómo mejorar el mapa de sitio XML?

Si encuentras URLs que no están incluidas, aquí te dejo algunos pasos recomendados:

  • Agregar URLs faltantes: Asegúrate de incluir todas las URLs relevantes en tu mapa de sitio, especialmente aquellas que son indexables y deberían estar accesibles para los motores de búsqueda.
  • Subida y compartición: Sube el archivo exportado a una plataforma de almacenamiento como Google Drive. Esto facilita la colaboración y revisión por otras partes interesadas.

¿Cómo enviar el mapa de sitio XML a Google?

El envío de tu mapa de sitio a través de Google Search Console garantiza que Google esté al tanto de todas tus URLs importantes.

  1. Crear cuenta en Google Search Console: Si no lo has hecho, crea y confirma la propiedad de tu sitio.
  2. Envío del mapa de sitio: En la sección Sitemaps, ingresa la URL de tu mapa de sitio (e.g., sitemap.xml) y haz clic en "enviar".

Este paso asegura que Google revise y reconozca el mapa de sitio, facilitando su trabajo de rastreo y optimizando el crawl budget.

¿Qué hacer si necesitas optimización adicional?

En caso de encontrar fallos o necesitar mejoras:

  • Verifica y actúa: Marca claramente estas acciones en tu plan de auditoría y prioriza. Aunque no sea crítico, un mapa de sitio incompleto requiere atención para evitar impactos negativos en SEO.
  • Instrucciones y referencias: Asegúrate de proporcionar enlaces y recursos útiles, como referencias directas a Google Search Console, para facilitar el trabajo de quien realice la tarea.

Mantener un mapa de sitio XML actualizado y optimizado es una inversión en el rendimiento SEO de tu sitio. Asegúrate de revisarlo regularmente y adapta las estrategias a las necesidades cambiantes de tu contenido y estructura web. Esto resulta en un sitio más visible y eficiente.

Aportes 50

Preguntas 47

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

Voto para que haya una escuela de SEO 😜

❤️ si quieres un curso de Screaming Frog

El mapa de sitio XML es un archivo para indicar a Google la lista de URL (páginas de mi sitio web), donde podrás ir a arrastrar toda la información. Esto significa que el proceso será más óptimo para Google, más sencillo encontrar todo lo que tiene mi sitio.

Nos ayuda a optimizar los recursos de búsqueda y facilitar el proceso a Google.

Para encontrar el mapa de sitio: buscamos en Google:
nombreSitio/sitemap.xml

  • A veces también se pueden encontrar en el archivo robots.txt

En este mapa de sitio deberían estar todas las URL que encuentra Google en el rastreo. Para verificar esto, utilizamos el emulador de rastreo Screamingfrog que se debe instalar en el equipo y tiene una licencia gratuita que nos permite rastrear hasta sitios web con 500 URL.

Muy bueno Alejandro.

Si no se tiene acceso a Search Console también se puede usar https://www.google.com/ping?sitemap=http://dominio.com/sitemap.xml para hacer Ping a Google notificando un nuevo sitemap (espero les sirva)

https://youtu.be/s69NC-e8Aqc Aquí les explica un poco más del sitemaps

Para los que tienen su sitio en una frame de JS.(Javascript) la configuración de Screaming Frog es distinta.

Si les pasa que ven solo un par de URL’s no se angustien acá les comparto el tutorial. Adicional es importante que sepan que estos ajustes sólo son para la versión paga.

https://www.youtube.com/watch?v=Uvm-21sQAzM&ab_channel=ScreamingFrog

Hoy en día la opción de URLs not in sitemap no es gratuita en Screaming frog pero pueden verlo en SEOLYZER en el apartado de sitemaps.

Confirmen que les encanta SEO!, hasta rompí mi Chrome, cree que soy un robot, analizando todo 😉

Para los que usan wordpress les recomiendo: YOASTSEO. Es increible su facilidad y para mi es super completo.

Recuerdo haber sufrido un episodio de locura con esto de los sitemaps. Search Console no aceptaba el que había generado.
Long story short: Probé mil cosas, pero solo faltó ponerle un “/” al final.
Es decir: tudominio.com/sitemap.xml/

“El mundo del SEO es un mundo de herramientas”

Si les genera el siguiente error: Activa la opción “Sitemap XML” para rellenar este filtro

Lo solucionan en Configuración>Spider y activan el check de Rastrear sitemaps XML enlazados

tengo un gran gran problema … al buscar las URls que no estan en sitemap screaming frog me dice que no tengo configurado el SITE XML y pues aunque corra 10000 veces el analisis de rastreo no me tira nada. Alguien podria por favor darme support

Les dejo un sitio web que les permite crear el sitemap por ustedes:
https://www.xml-sitemaps.com/
Solo deben indicarle la url de su sitio web y les generará el sitemap con las propiedades
lastmod y priority

Parece que el sitio con el que estoy haciendo en análisis tiene bloqueado el sitemap ¿o estaré haciendo mal la practica?
Porque intenté con /sitemap.xml/ y me sale mensaje de error, pero sin el / al final me sale una lista de urlss y en el título dice YOAST

En mi caso la pagina esta creado en wordpress y tuve que instalar un plugin para ver el sitemap.xml

En Google Search console aparece la opción de agregar sitemap de imágenes y otro para video, además del referente a URL. ¿Hay alguna herramienta gratis para generar sitemaps de imágenes y video? La única que he visto es https://www.xml-sitemaps.com/images-sitemap.html en versión de pago.

Al parecer, Screaming Frog ya no permite de forma gratuita hacer lo de ver que URL no están en el sitemap, ya que todas las soluciones siempre llevan a que el software no permite avanzar por no tener licencia de pago. Sería bueno ver si aún hay una herramienta gratuita que de esa opción.
alguien conoce una alternativa para el screaming frog pero que si rastre páginas con js gratis :v
## Funcionamiento de los algoritmos y Crawl Budget * **Funcionamiento de los algoritmos**: Se refiere a cómo los motores de búsqueda como Google procesan y clasifican las páginas web, incluyendo los factores que consideran para el posicionamiento. * **Crawl Budget**: Es el número de páginas que los buscadores pueden y quieren rastrear de tu sitio web en un periodo determinado. Es un recurso limitado que hay que optimizar, especialmente en sitios grandes. El algoritmo tiene tres pasos: 1. Rastreo: entra al sitio web y rastrea el contenido. (SEO técnico) 2. Indexación. clasificación de los contenidos. (SEO On-Page) 3. Ranking: le asigna un score y define en qué orden irán los contenidos en los resultados de búsqueda (SEO On-page / SEO Off-page) El archivo robots.txt y el mapa del sitio (sitemap) son herramientas fundamentales que trabajan en conjunto para optimizar el proceso de rastreo e indexación: * **Robots.txt:** Es un archivo que indica a los motores de búsqueda qué páginas pueden o no rastrear en tu sitio web. Actúa como una guía de "permiso" para los crawlers, ayudando a optimizar el crawl budget. * **Sitemap:** Es un archivo que lista todas las páginas importantes de tu sitio web que deseas que sean indexadas. Funciona como un mapa que ayuda a los buscadores a encontrar y rastrear más eficientemente el contenido de tu sitio. Ambos elementos son especialmente importantes durante la fase de rastreo, ya que ayudan a los motores de búsqueda a encontrar y procesar el contenido de manera más eficiente antes de pasar a la fase de indexación y posterior ranking. Esta optimización es particularmente relevante para gestionar el crawl budget, que es el número de páginas que los buscadores pueden y quieren rastrear en tu sitio durante un período específico. Para identificar qué páginas queremos (o en caso de una auditoría, necesitamos saber) que se indexen, basta con escribir al final de la URL como subdirectorio, /robots.txt. Regularmente, dentro del archivo robots.txt podemos encontrar la URL que nos lleva al mapa del sitio. Otra forma de dar con el mapa del sitio es simplemente escribiendo al final de la URL /sitemap\_index.xml.
estoy auditando un sitio de un banco pero me sale 404 con el robots.txt y el sitemaps, como se si lo tienen bloqueados por seguridad o es que no existen esos archivos.
En la pagina web que estoy utilizando para el analisis checklist, NO cuenta con sitemap /sitemap.xml. Sin embargo cuando pongo /robots.txt , ahi aparece el site map del sitio. Está bien que aparezca de este modo? y qué diferencias hay de los dos modos. Muchas gracias
una pregunta , la pagina web con la que estoy haciendo el checklist NO tiene un sitemap en sitemap.xml , sin embargo el sitemap aparece cuando pongo al final del dominio /robots.txt. Esto esta bien ?
Profesor Alejandro, será que este curso está muy desactualizado, vengo del curso de Fundamentos de SEO con Ivan y creo que está muy atrás en unas clases a comparación con el otro curso, donde sumercé también está. Lo salto o tomo este curso entero? Agradezco pueda responderme, mil gracias
Hola a todos! me da un error 403 Forbidden el screaming frog, alguien me puede ayudar a ver las URL del sitemap o exportarlas? Gracias
Hola tengo una duda, es que en Screamong frog, cuando voy a las url que no están en el sitemap, en vez de pedirme que inicie el analisis de rastreo me pide que active la opción "sitemap xml". ¿Por qué me sale eso y qué debo hacer para activar el sitemap? Muchas gracias
¿Que curso explica como hacer estas correciones o mejoras en los web site? para pasar del diagnostico a la resolución de los problemas...Gracias
Yo creo que faltó la siguiente información. El hecho de que un sitemap esté presente cuando usas "sitename.com/sitemap.xml" y sea accesible en tu sitio web no garantiza que Google lo haya rastreado o esté al tanto de su existencia. Para asegurarte de que Google conozca tu sitemap, debes enviarlo a través de Google Search Console.

Hola, al intentar ver las “URLs not in sitemap” me sale que no está configurado; estuve googleando pero no encontré cómo hacerlo. Me podrían orientar por favor.

¿cómo puedo eliminar estos sitemaps generados automaticamente por el YOAST SEO?

😐

por qué, en el ejercicio el sitemap no tenía incluidas las url? el sitemap no se actualiza automaticamente?

oro puro 😜

Yo tambien he ocupado para hacer Sitemap
https://www.xml-sitemaps.com/

Curso ahrefs porfavor!! que herramienta tan buenaa!!!

¿este curso es valido para WordPress?

Tengo dos preguntas ¿Si cambio de dominio esto afecta a el mapa de sitio? y ¿Cada cuánto se debe actualizar el mapa de sitio?

Tengo una duda, screamingfrog me indica URL´s que no están en el sitemap pero dichas URL´s está bien ponerlas en el sitemap ?. Es decir esas URL´s son beneficiosas o es posible que sean URL´s thin content que lo que pueden hacer es penalizar el site.

Agradezco la respuesta.

Nos explicaste como enviar el sitemap a la consola de google, pero como verificamos que el sitemap no esta previamente enviado? o esto se puede hacer X numero de veces?

Me sale error:
“error on line 2 at column 6: XML declaration allowed only at the start of the document”

Alejandro te olvidaste cómo debemos de subir todo esos sitemap indexados a google console, o solo copio mi archivo Excel y lo pongo subir a google console me quede con esa duda espero su respuesta gracias.

¿En Google Search Console me sale en estado no se ha podido obtener?

Hola, tengo una duda, espero me puedan ayudar.
Si tengo una página con demasiados sub dominios, cada uno debe tener su sitemap, o solo la URL principal, adicional, me gustaría saber si este crawl en screaming frog se debe realizar por cada subdominio. Muchas gracias.

¿Cómo se modifica el sitemap del sitio para después mandar a validar en GSC?

+1

Sería bueno un link para copiar y pegar el archivo de auditoría 😄

Ya hay un curso de Google Search Console en Platzi si lo quieren tomar, además también lo dicta Alejandro: https://platzi.com/clases/google-search-console/

Esta genial este Curso

Por qué sucede que al agregar dichas URLs a Search Console cuando se corre nuevamente Screaming frog siguen apareciendo que deben ser añadidas?

escuela de seo suena bien