me gustaría descargar una copia local de una página web y obtener toda la CSS, imágenes, JavaScript, etc.descargar una copia local de trabajo de una página web
En discusiones anteriores (por ejemplo here y here, tanto de los cuales son más de dos años de edad), dos sugerencias son generalmente presentadas: wget -p
y httrack. Sin embargo, estas sugerencias fallan. Apreciaría mucho la ayuda con el uso de cualquiera de estas herramientas para realizar la tarea; las alternativas también son encantadoras.
Opción 1: wget -p
wget -p
descargas con éxito todos los requisitos previos de la página web (CSS, imágenes, js). Sin embargo, cuando la carga de la copia local en un navegador web, la página no puede cargar los requisitos previos debido a que las rutas de acceso a esos requisitos previos no se han modificado a partir de la versión en la web.
Por ejemplo:
- en HTML de la página,
<link rel="stylesheet href="/stylesheets/foo.css" />
tendrá que ser corregido para que apunte a la nueva ruta relativa defoo.css
- en el archivo CSS,
background-image: url(/images/bar.png)
necesitarán de manera similar a ajustar.
¿Hay alguna manera de modificar wget -p
para que las rutas sean correctas?
Opción 2: httrack
httrack
parece una gran herramienta para la duplicación de sitios web completos, pero no está claro para mí cómo usarlo para crear una copia local de una sola página. Hay un gran debate en los foros HTTrack sobre este tema (por ejemplo here) pero nadie parece tener una solución a prueba de balas.
Opción 3: ¿otra herramienta?
Algunas personas han sugerido herramientas de pago, pero simplemente no pueden creer que no es una solución libre por ahí.
Gracias tanto!
Si la respuesta no funciona, trate de: 'wget -E -H -k -K -p http: // example.com' - sólo que esta trabajaban para yo. Crédito: http: // superusuario.com/a/136335/94039 –
También hay software para hacer eso, [Teleport Pro] (http://www.tenmax.com/teleport/pro/home.htm). – pbies
'wget --random-wait -r -p -e robots = off -U mozilla http: // www.example.com' – davidcondrey