Uscrapper: Raspador web OSINT de recopilación de datos personales

Presentamos Uscrapper 2.0, un potente webscrapper OSINT que permite a los usuarios extraer diversa información personal de un sitio web.

Aprovecha técnicas de raspado web y expresiones regulares para extraer direcciones de correo electrónico, enlaces de redes sociales, nombres de autores, ubicaciones geográficas, números de teléfono y nombres de usuario de fuentes con y sin hipervínculos en la página web, admite subprocesos múltiples para acelerar este proceso.

Uscrapper 2.0 es equipado con módulos avanzados de omisión Anti-webscrapping y admite rastreo web para extraer varios subenlaces dentro del mismo dominio. La herramienta también ofrece una opción para generar un informe que contiene los detalles extraídos.

Detalles extraídos:

Uscrapper extrae los siguientes detalles del sitio web proporcionado:

  • Direcciones de correo electrónico: muestra las direcciones de correo electrónico que se encuentran en el sitio web.
  • Enlaces de redes sociales: muestra enlaces a varias plataformas de redes sociales que se encuentran en el sitio web.
  • Nombres de autores: muestra los nombres de los autores asociados con el sitio web.
  • Geoubicaciones: muestra información de geolocalización asociada al sitio web.
  • Detalles sin hipervínculos: muestra los detalles sin hipervínculos que se encuentran en el sitio web, incluidas direcciones de correo electrónico, números de teléfono y nombres de usuario.

¿Qué hay de nuevo?:

Uscrapper 2.0:

  • Se introdujeron múltiples módulos para evitar las técnicas anti-webscrapping.
  • Presentamos Crawl and scrape: un módulo avanzado de rastreo y scrape para rastrear sitios web desde dentro.
  • Implementé Multithreading para agilizar estos procesos.

Pasos de instalación:

git clone https://github.com/z0m31en7/Uscrapper.git
cd Uscrapper/install/ 
chmod +x ./install.sh && ./install.sh      #For Unix/Linux systems

Uso:

Ejecutar Uscrapper, utilice la siguiente sintaxis de línea de comandos:

python Uscrapper-v2.0.py [-h] [-u URL] [-c (INT)] [-t THREADS] [-O] [-ns]

Argumentos:

  • -h, –help: muestra el mensaje de ayuda y sale.
  • -u URL, –url URL: especifique la URL del sitio web del que extraer detalles.
  • -c INT, –crawl INT: especifica el número de enlaces a rastrear
  • -t INT, –threads INT: especifica la cantidad de subprocesos que se utilizarán durante el rastreo y el raspado.
  • -O, –generate-report: genera un archivo de informe que contiene los detalles extraídos.
  • -ns, –nonstrict: muestra nombres de usuario no estrictos durante la extracción.
Vistas: 0