Podemos descargar páginas Web enteras introduciéndole las siguientes directrices:
- -r --> Conseguiremos que descarga de forma recursiva todos los enlaces de la página.
- -l # --> Indicaremos el numero de niveles que se deben descargar substituyendo la # por el número deseado.
- -x --> Crearemos en nuestro disco duro una estructura de directorios como la que tiene el servidor web.
- -np --> No seguir los enlaces de niveles superiores al inicial.
- -N --> La actualización se hará de forma incrementar descargando solo si no esta en nuestro disco duro o si el fichero del servidor es mas nuevo que el que tenemos nosotros.
Para descargar una web deberemos poner:
wget -r -l 4 -x -np- N http://www.tesecargo.com
Saludos
Espero me puedan ayudar porque es para el lunes 3 de diciembre del 2012
ResponderEliminarEl proyecto a desarrollar es el siguiente :
Es para un examen que tengo y no se como hacerlo, puedo hacer el primer paso pero los siguientes no se como.
Reubicacion de un sitio web ajustando las referencias href.
1.-Considerando un sitio Web, descargar el sitio completo a un directorio local mediante el comando wget. Y mediante un script de su autoría realizar las siguientes operaciones:
1.1.-Crear un directorio independiente para cada tipo de contenido: imágenes gif, imágenes jpeg, etc, vídeos avi, vídeos mpg, etc, audio mp3, audio wav, etc., contenido web (HTML, javascript, etc).
1.2.-Una vez que se ha reubicado cada uno de estos contenidos, llevar a cabo el ajuste de las referencias hacía las ubicaciones locales de cada recurso del sitio.
1.3.-Activar un servidor Web, y configurar el directorio raíz en donde se encuentra el respaldo del sitio Web como el directorio root del servidor Web local.
1.4.-Nota: el comando wget solo se podrá usar con las opciones siguientes:
--recursive
--domains
--page-requisites
Si por alguna razón son necesario mas comandos, utilizar los necesarios.