No tienes acceso a esta clase

¡Continúa aprendiendo! Únete y comienza a potenciar tu carrera

Última oportunidad para asegurar tu aprendizaje por 1 año a precio especial

Antes: $249

Currency
$189/año

Paga en 4 cuotas sin intereses

Paga en 4 cuotas sin intereses
Suscríbete

Termina en:

0D
6H
44M
20S

Mapeo de aplicaciones web y análisis de archivos de interés

5/21
Recursos

El mapeo de aplicaciones o mapeo de la web es el proceso de descubrir e identificar las interacciones e interdependencias entre los componentes de las aplicaciones y su infraestructura de hardware y subyacente.

Cuando se realizan un mapeo a una web, se sigue metodologías y procesos para encontrar vulnerabilidades comunes. Esto ayudaría a revelar muchos más fallos y posibles vulnerabilidades de seguridad.

¿Cuál es el fin de una mapeo?

  • Analizar e identificar archivos que contenga información relevante o sensible.

Pasos para hacer mapeo a una aplicación web

  1. Ingresar a la consola
  2. Ir a la carpeta Desktop cd Desktop

3.Crear una carpeta de Platzi mkdir Platzi

4.Dirígete a la carpeta creada cd Platzi 5. Mapea una aplicación web con wget wget -r url

-r: Obtención recursiva, es decir, obtendrá todos los enlaces que tenga la aplicación web.

  • wget -r : Descarga la estructura de la página web

¿Por qué usar wget?

Es una utilidad gratuita para la descarga no interactiva de archivos web. Soporta los protocolos HTTP, HTTPS y FTP, así como la recuperación a través de proxies HTTP, quiere decir, que en estos protocolos podemos usar wget.

Crea versiones locales de sitios web remotos, recreando completamente la estructura de directorios.

Tip: Para saber qué hace un comando, digitando man comando podrás saber qué otras opciones hay

Archivos de interés

Robots.txt

Se utiliza para indicar a los buscadores qué áreas de tu sitio web quieres que se indexe o no. Pueden haber rutas sensibles.

Contribución creada con los aportes de: Angie Espinoza

Aportes 10

Preguntas 3

Ordenar por:

¿Quieres ver más aportes, preguntas y respuestas de la comunidad?

o inicia sesión.

Recolección de inteligencia pasiva

  1. Iniciamos la máquina virtual de kali Linux
  2. Abrimos la consola y escribimos
    cd Desktop
    mkdir platzi
    cd platzi
    wget -r platzi . com
  3. Dentro de la carpeta platzi que se descarga, se puede observar la estructura de la página de platzi.
  4. el archivo robots.txt indica a los buscadores que indexar y que no.
    NOTA: Para mapear una aplicación web, utilizamos la herramienta wget -r y el archivo robots.txt indica a los buscadores que indexar.

ARCHIVO DE INTERÉS
robots.txt
Es para indicar a los buscadores que áreas del sitio web se desea indexar y cuales NO. Es un archivo colaborativo, solamente las organizaciones que colaboren cumplirán con lo que se le pida (Google,Bing, etc).

  • El comando “wget -r nombredelsitioweb” descarga la estructura de la pagina web
  • El archivo robots.txt indica a los buscadores que indexar y que no

y faltan otros como:
Google hacking
Google dorks
etc

Soy nuevo en este mundo de ciberseguridad, inicie desde el curso introductorio, muy interesante, espero seguir aprendiendo, como digo, es totalmente nuevo para mi.

aunque para aprender todos recomiento kali!, yo siempre e utilizado parrot os o arch linux

WGET: Si la página web está en PHP, no descarga el código backend. Solo descarga el frontend

Yo tengo una laptop medio viejita que ya no estaba usando, alli estoy usando Kali Linux desde live USB y funciona de maravilla, con todos los recursos exclusivos para el

  • muy interesante el uso de la aplicación wget me parece muy interesante el uso que le podemos dar a estas aplicaciones

Hola Compañeros,
siento que hay cierta contradicción en lo que dice en el min 4:06 y el ultimo ejemplo pues me pierdo un poco si solo se ponen las rutas con el Disallow para que no sean indexadas, creo que no especifica que en ese no aplica el ejemplo.
Gracias!