si me dirijo al robots.txt y encuentro esto: User-agent: Slurp Crawl-delay: 2 User-agent: Mediapartners-Google Disallow: User-agent: wget...

Brayan David

Brayan David

Pregunta
studenthace 4 años

si me dirijo al robots.txt y encuentro esto:

User-agent: Slurp

Crawl-delay: 2

User-agent: Mediapartners-Google

Disallow:

User-agent: wget

Disallow: /

User-agent: *

Allow: /

significa que puedo hacer web scrapping o que no puedo hacer scrapping en todo lo que vaya despues del “/”

1 respuestas
para escribir tu comentario
    Moisés Manuel Morín Hevia

    Moisés Manuel Morín Hevia

    studenthace 4 años

    Puedes escrapear todo menos los usuarios. Si igual lo vas a hacer te recomiendo usar un VPN para que tu IP sea otra.

Curso de Web Scraping con Python y Xpath

Curso de Web Scraping con Python y Xpath

Aprende las bases de la extracción de datos en Internet y descubre cómo funciona una aplicación de Web Scraping internamente. Desarrolla scripts a través de herramientas como Python y las DevTools del navegador y consigue tu siguiente trabajo en cualquier empresa de tecnología.

Curso de Web Scraping con Python y Xpath
Curso de Web Scraping con Python y Xpath

Curso de Web Scraping con Python y Xpath

Aprende las bases de la extracción de datos en Internet y descubre cómo funciona una aplicación de Web Scraping internamente. Desarrolla scripts a través de herramientas como Python y las DevTools del navegador y consigue tu siguiente trabajo en cualquier empresa de tecnología.