Foro de elhacker.net

Programación => Desarrollo Web => Mensaje iniciado por: Thejb29 en 25 Enero 2024, 02:22 am



Título: Clonar página web.
Publicado por: Thejb29 en 25 Enero 2024, 02:22 am
Hola! Estoy en este mambo ... Hay una forma de clonar una página web automatizada? Las realizó desde 0 pero me da flojera. Las animaciones y eso, realize un scrapper utilizando node JS con el objeto HTTP y fs. Tienen alguna otra opción?


Título: Re: Clonar página web.
Publicado por: @XSStringManolo en 26 Enero 2024, 13:29 pm
Cada web es distinta por lo que automatizar es imposible. Puedes usar capturas de pantalla para ahorrar mucho tiempo.


Título: Re: Clonar página web.
Publicado por: Mr.Byte en 27 Enero 2024, 09:39 am
Puedes probar con
https://www.httrack.com/ (https://www.httrack.com/)


Título: Re: Clonar página web.
Publicado por: Sadistski en 13 Febrero 2024, 23:49 pm
CTRL + u para ver el source code
view-source: desde chrome si estas en un phone

o mira el pie de pagina para ver de donde saco la plantilla ;D


Título: Re: Clonar página web.
Publicado por: Parado_larga_duracion_ESP en 14 Febrero 2024, 12:43 pm
En Google dice que con esto puedes:

Código
  1. wget --mirror --convert-links --wait=2

También puedes probar CTRL + S desde el navegador.

Y debe haber más alternativas, yo diría que Kali Linux tiene algo para clonar sitios también.

No sé, nunca lo he echado en falta. Pero sí, ¿un portal de un banco quieres clonar?



Título: Re: Clonar página web.
Publicado por: elektrostudios2 en 21 Febrero 2024, 13:18 pm
Puedes probar con
https://www.httrack.com/ (https://www.httrack.com/)

Sin lugar a dudas HTTrack es una aplicación legendaria, de las más veteranas que han perdurado en el tiempo. La he utilizado ocasionalmente desde hace décadas hasta no hace mucho, sin embargo, debo confesar que -y quizás solo sea una percepción subjetiva- con el paso de los años y los avances tecnológicos en la arquitectura y la seguridad de los sitios web, cada vez me parece más complicado llevar a cabo una réplica medianamente decente con HTTrack, de hecho, para algunos sitios web incluso me resulta imposible hacer que "descubra" las URL para descargar las páginas web y replicar su contenido. Son cosas que hace muchos años no pasaban con HTTrack, pero ya digo, quizás solo sea mi percepción y yo esté equivocado al respecto.

Antiguamente, hace unos 15 o 20 años, existían programas muy sofisticados relacionados con la aplicación de la técnica Phishing para automatizar la clonación (falsificación) de páginas web, algunos de estos programas podían clonar un sitio web entero y no se notaba la diferencia. Actualmente, y aunque es evidente que el Phising no ha pasado de moda, desconozco hasta qué punto habrá evolucionado su posible automatización o si quizás sea inviable automatizarlo para soportar la clonación de cualquier sitio web entero, ya que mis conocimientos sobre desarrollo web en general son bastante limitados.

Lamento no poder ayudar y tener que limitarme a compartir una experiencia personal sin utilidad real.

Aténtamente,
Elektro.