Contactos

Comandos de wget: ejemplos. Programa de consola para descargar archivos a través de la red WGET. Ejemplos de usar WGET, o cómo descargar desde la línea de comandos cómo usar el programa WGET

A menudo es necesario si no hay una interfaz gráfica (por ejemplo, al configurar un servidor remoto) descargue un archivo a un disco. Además, hay situaciones cuando no hay tiempo (o simplemente una reina) para leer un manual de kilómetro solo para descargar el archivo. Por lo tanto, este artículo le dará algunos ejemplos simples de uso del popular voladizo "Rocking" - Wget.

Por cierto, después de descubrir esta utilidad, a menudo lo uso como alternativa a los gerentes de descarga gráfica, porque Wget resultó ser más rápido, más conveniente y tiene una serie de características útiles que ya no están en ninguna parte.

Prácticamente en todas las distribuciones WGET, se establecen de forma predeterminada, pero si no es así:

Lo que simplemente descargaría el archivo, como argumento, especifique el enlace HTTP o FTP:

$ wget ftp://somedomain.com/somefile.tar

donde "http://somedomain.com/somefile.tar" es un enlace directo al archivo que desea descargar.

En Wget, como en cualquier "silla mecedora de Internet" avanzada, existe la oportunidad de hacer. Esto usa el parámetro -C.o -Continuar. :

cuando se rompe la inyección, continuar, en la carpeta con el archivo de déficit, escribimos:

$ wget http://somedomain.com/somefile.tar

o de nuevo con el desig:

$ Wget --continue http://somedomain.com/somefile.tar

Es necesario desplegar varias docenas de archivos (o cientos). Una forma es especificar el WEGGE-Y como argumento un documento de texto, o una página HTML que contiene enlaces directos a los archivos que desea descargar. Para esto usa la opción. -I.o -Fichero de entrada :

$ WGETE - INICIO-FILO \u003d / RUTA / A / LISTA

Para configurar la plantilla de archivo que debe descargar o ignorar, es conveniente usar las opciones. -A -accept y -R-rey, indicando como argumentos para ellos una lista de puntos y coma compartidos. Por ejemplo, en orden al descargar una lista de archivos, ignore los archivos con Exe y AVI Extensions, usamos el comando:

$ WGET --Reja * .exe, * .AVI --Input-File \u003d / Patch / to / List

Cabe señalar que en todos los ejemplos anteriores, la descarga se realizará en el directorio actual. Para especificar un directorio arbitrario, use la opción -PAG. o -Directory-prefijo. :

$ WEGGET - / FIRECTORY-PREFIX \u003d / DESCARGA / DESCARGA http://somedomain.com/somefile.tar

Dado que el WGET utiliza el canal de Internet "en el programa completo", a veces es útil limitar la velocidad de descarga, para no interferir con la operación de otras aplicaciones de Internet. Esto ayudará a la opción. -La tasa de limitación, como argumento para el que indicamos la velocidad en kilobytes:

$ Wget - limitte-tasa \u003d 120k http://somedomain.com/somefile.tar

Las opciones anteriores se pueden combinar dependiendo de las necesidades.

Considere otra opción interesante para usar los sitios de descarga de wget. Simplemente puede hacer una copia de espejo del sitio usando la opción. -metro. o -Espejo :

$ wget -m http://www.somedomain.com/

en este caso, se preserva la arquitectura de los enlaces absolutos.

También es posible la creación de una copia del sitio para la visualización local, en la que cada enlace indica el archivo local apropiado. Para hacer esto, use el siguiente conjunto de opciones:

$ WGET -K -R -R -L0 -NP --Página-requisitos http://www.somedomain.com/

brevemente sobre cada opción:

-K -convert-enlaces - convierte enlaces absolutos a local

-R - recursivo. - Carga recursiva, es decir,. Se inyectarán todos los enlaces y páginas invertidas.

-Lvel - Enlaces de referencias 0 - Infinitamente (predeterminado - 5)

-np -no-padre - No se levante por encima del nivel del enlace inicial.

-p -page-requisitos. - Descargar todo lo que necesita para mostrar correctamente páginas (imágenes, CSS, JavaScript, etc.)

Esta no es una lista completa de las opciones de uso posibles para esta utilidad. Sólo describí los ejemplos más elementales para mostrar brevemente las posibilidades y la versatilidad de una herramienta tan poderosa como WGTE.

Puede familiarizarse con el manual de WGET completo o.

Wetget. - Programa de texto para descargar archivos.

Si las características de Wget no son suficientes, puede usar Curl.

Ejemplos

Simplemente descargar archivo Wget:

Wget ftp://vasya.pupkin.com/film.avi.

Para continuar la inyección rota Nosotros escribimos:

Wget -c ftp://vasya.pupkin.com/film.avi.

Wget --Continue ftp://vasya.pupkin.com/film.avi.

Como en otros programas, las llaves tienen formas cortas y largas, y en su lugar, es posible escribir -continuar. Las llaves largas son más fáciles de recordar, pero escribir más tiempo. Puedes mezclar fácilmente varios formularios de escritura.

A despliegue los archivos de la listaque contiene enlaces directos:

Wget -i pupkinlist.txt

Wget - enput-file \u003d pupkinlist.txt

Aquí solo el archivo contiene enlaces. El archivo también puede ser un html-asshole, en el que hay enlaces. Se venderán a cabo el comando anterior.

Use A LA "TELEPORT PRO para Linux".

Al descargar más oportunidades de sitios web, y por lo tanto, se requieren más claves. Nuevamente, no es necesario recordarlos, puede hacer un guión (y mejor, un poco, para diferentes casos) y causarlos.

Por lo tanto, si hay un sitio web, y me gustaría tener su copia local en la computadora, de modo que, apagándose de la red, fue posible que no tenga prisa por leerlo.

Sitios de reflejo en el coche local:

Wget -m http://www.vasyapupkin.com/

M es equivalente a -R -R -N -L INF -NR, estas opciones se describen a continuación.

Copiando el sitio para la visualización local (con reemplazo de enlaces a Internet a las direcciones locales páginas descargadas):

Wget -r -l0 -k http://www.vasyapupkin.com/

Esto incluirá una descarga recursiva (clave -R, -Recursive),

Opciones

WGTE tiene una gran cantidad de opciones útiles: más que el teletransporte "y las banderas. Estar envuelto en un script, por ejemplo, teletransportarse y colocar un lugar destacado (especificado en la ruta), tiene facilidad de uso y riqueza de configuración.

NP, -no-padre: no se levante por encima de la dirección inicial durante la descarga recursiva.

R, -Recursive: habilite los directorios de visualización recursivos y subdirectorios en un servidor remoto.

L. , -Level \u003d. - Determine la mayor profundidad de la recursión igual a la profundidad al ver directorios en un servidor remoto. Profundidad predeterminada \u003d 5.

NP, -no-padre: no vaya al directorio principal mientras busca archivos. Esta es una propiedad muy útil porque garantiza que solo se copien aquellos archivos que están por debajo de una cierta jerarquía.

UNA. ,Aceptar , -R. , -Rechazar. - Lista de nombres de archivos separados por comas, que deben (aceptar) o no deben (rechazar) descargar. Se permite establecer los nombres de archivos en la máscara.

K, -convert-enlaces: convierta enlaces absolutos al documento HTML en enlaces relativos. Solo las referencias que indican las páginas descargadas en realidad se convertirán; El resto no se transformará. Tenga en cuenta que solo al final del trabajo de WGET, podrá descubrir qué páginas estaban realmente cargadas. En consecuencia, solo al final del trabajo de Wget se realizará la transformación final.

-HTTP-USER \u003d , -Http-passwd \u003d Especifique el nombre de usuario y la contraseña en la pantalla HTTP.

H, -SPAN-HOSTS: le permite visitar cualquier servidor al que hay un enlace.

P, -Página-requisitos: descargue todos los archivos que se necesitan para mostrar las páginas HTML. Por ejemplo: dibujos, sonido, estilos de cascada (CSS). De forma predeterminada, tales archivos no están cargados. Los parámetros -R y -L especificados juntos pueden ayudar, pero porque WGET no distingue a los documentos externos e internos, entonces no hay garantía de que se cargarán todos los requisitos.

Tienes un javascript bloqueado en tu navegador. ¡Permitir JavaScript para el trabajo del sitio!

Wget - programa para descargar archivos y
descargando el sitio por completo.

El mundo de Linux, la utilidad WEGET distribuida libremente le permite descargar ambos archivos separados de Internet y los sitios completos, siguiendo los enlaces en las páginas web.

Para obtener un indicio por los parámetros WGET, escriba el comando Hombre WGET en Linux o WGET.EXE-HELP en Windows.

Supongamos que queremos crear una copia completa del sitio www.site.com en su disco. Para hacer esto, abra la línea de comandos (utilidad de la consola wget) y escriba el siguiente comando:

Wget.exe -r -l10 -k -p -e -nc http://www.site.com wget recursivamente (parámetro -R) costará directorios y subdirectorios en un servidor remoto, incluidos los estilos CSS (-K) con la máxima recursión Profundidad igual a diez (-L), y luego reemplace los enlaces absolutos a Relativo (-K) y extensiones a HTML (-E) en los documentos HTML cargados para la visualización local posterior del sitio descargado. Al volver a descargar no habrá caras y sobrescribirán las repeticiones (-NC). Desafortunadamente, los estilos internos e imágenes indicados en los estilos no se descargan

Si se supone que se puede descargar desde el sitio de un solo directorio (con todas las carpetas invertidas en ella), entonces será más lógico incluir el parámetro -NP en el símbolo del sistema. No permitirá la utilidad al buscar archivos para escalar la jerarquía de directorios sobre el directorio especificado:

Wget.exe -r -l10 -k http://www.site.com -np

Wget.exe -r -l10 -k http://www.site.com -c

De forma predeterminada, todo descargado se guarda en el directorio de trabajo de la utilidad. Definir otra ubicación de los archivos copiados ayudará al parámetro -p:

Wget.exe -r -l10 -k http://www.site.com -p c: \\ internet \\ archivos

Finalmente, si la configuración de red de su red asume el uso de un servidor proxy, entonces se debe informar su configuración al programa. Cm.

Wget -m -k -nv -np -p --user-agente \u003d "Mozilla / 5.0 (compatible; Konqueror / 3.0.0 / 10; Linux)" Direction_Site

Archivo wget -i.

Descarga de un archivo en el directorio especificado (-p):

Wget -p / ruta / para / guardar ftp://ftp.example.org/some_file.iso

Usando el nombre de usuario y la contraseña en FTP / HTTP (Opción 1):

Wget ftp: // Iniciar sesión: [Correo electrónico protegido]/some_file.iso.

Usando el nombre de usuario y la contraseña en el FTP / HTTP (Opción 2):

Wget --user \u003d login --password \u003d contraseña ftp://ftp.example.org/some_file.iso

Descargando en el fondo (-b):

Wget -b ftp://ftp.example.org/some_file.iso

Continuar (-C Continuar) Descargar anteriormente No completamente descargado Archivo:

Wget -c http://example.org/file.iso.

Descargue la página desde la profundidad de los siguientes 10, grabando el protocolo al archivo de registro:

Wget -r -l 10 http://example.org/ -o log

Descargue los contenidos del catálogo http://example.org/~luzer/my-archive/ y todos sus subdirectorios, mientras que no suben a la jerarquía de directorios arriba:

Wget -r --no-padre http://example.org/~luzzer/my-archive/

Para que los vínculos en todas las descargas en los enlaces sean relativos a la visualización local, debe usar la tecla -K:

Wget -r -l 10 -k http://example.org/

También soportado en el servidor:

WEGE -SAVE-COOKIES Cookies.txt --post-data "usuario \u003d foo & contraseña \u003d bar" http://example.org/auth.php

Copia todo el sitio del conjunto:

Wget -r -l0 -k http://example.org/

Por ejemplo, no cargar archivos ZIP:

Wget -r -r "* .zip" http://freeware.ru

Inicia sesión y descarga el archivo clave

@Echo Off Wetget - COOKIES DE COILNIAS DE COOKIES.TXT - POST-DATOS "LOGIN \u003d TWOGIN & PASTE \u003d TWOPOL" http://beta.drweb.com/files/ -O- wget - cookies cookies.txt "http: //beta.drweb.com/files/? P \u003d Win %% 2fdrweb32-betatesting.key & t \u003d f" -o drweb32-betatesting.key

¡Atención! ¡El registro de parámetros de WGET es diferente!

Llaves de lanzamiento básicos

-V.
--Versión.
Muestra la versión WGET.

-h
--ayuda.
Muestra la ayuda con la descripción de todas las teclas de línea de comandos WEGTE.

-B.
--Antecedentes
Ve al modo de fondo inmediatamente después del lanzamiento. Si el archivo de salida no está especificado, la salida se redirige al registro WGET.

- Comando.
--Ejecutar comando.
Ejecutar comando como si fuera parte del archivo. El comando que se ejecuta de esta manera se completará después de los comandos V.WGETRC, recibiendo prioridad sobre ellos. Para tarea más de un comando wgetrc, use claves múltiples.

Llaves de registro y archivo de entrada

-O Logfile.
- archivo-archivo - archivo Logfile
Registre todos los mensajes en el archivo de registro. Por lo general, los mensajes se muestran en un error estándar.

-Un archivo de registro.
--Append-Output \u003d Logfile
Añadir al archivo de registro. Lo mismo que -o, solo el archivo de registro no se sobrescribe, sino que se agrega. Si no existe logfile, se creará un nuevo archivo.

-D.
--depurar.
Incluye la salida de la información de depuración, es decir, Varias información útil para los desarrolladores de WGET con trabajo incorrecto. El administrador del sistema podría elegir la Asamblea WGET sin depurar, en este caso, no funcionará. Recuerde que el soporte de depuración siempre es seguro: WGTE no mostrará la información de depuración hasta que se solicite claramente a través de -D.

-Q .Q.
--Tranquilo.
Desactiva la salida WGET.

-V.
--Verboso
Incluye una conclusión detallada con toda la información posible. Por defecto es predeterminado.

-NEVADA.
--Non-verbose
Salida integrada: desactiva los detalles, pero no se calla en absoluto (use -Q para esto), se muestran los mensajes de error y la información básica.

-i archivo
- archivo - archivo \u003d archivo
Lea la URL desde el archivo de entrada del archivo, en este caso, la URL no es necesaria para especificar en el símbolo del sistema. Si las direcciones de URL se enumeran en el símbolo del sistema y en el archivo de entrada, las direcciones de la línea de comandos serán primero. El archivo no debe (pero puede) ser un documento HTML, una lista de direcciones de URL suficientemente serial. Sin embargo, al especificar: force-HTML, el archivo de entrada se considerará HTML. En este caso, los problemas pueden surgir con referencias relativas que pueden resolverse por la indicación Dentro del archivo de entrada o --Base \u003d URL en la línea de comandos.

-F.
--Force-html
Al leer una lista de direcciones del archivo establece el formato de archivo como HTML. Esto le permite organizar la descarga por enlaces relativos en el archivo HTML local al especificar Dentro del archivo de entrada o --Base \u003d URL en la línea de comandos.

-B url
--Base \u003d URL
Utilizado C -F compartido para agregar la URL al principio de los enlaces relativos en el archivo de entrada especificado a través de -I.

Llaves descargar

--Bind-Dirección \u003d Dirección
Cuando abre el cliente, las conexiones TCP / IP se unen () en la dirección de la máquina local. La dirección se puede especificar como nombre de host o dirección IP. Esta clave puede ser útil si la máquina se asigna varias direcciones IP.

Número
- TRIES \u003d NÚMERO
Establece el número de intentos de número. La tarea 0 o INF corresponde a un número infinito de intentos. De forma predeterminada, 20, con la excepción de los errores críticos del tipo "en relación" o "Archivo no encontrado" (404), en el que los intentos no se renovan.

-O archivo.
--Output-Document \u003d Archivo
Los documentos no se guardan en los archivos relevantes, pero están concaten por el archivo con nombre del archivo. Si el archivo ya existe, se sobrescribirá. Si el archivo se establece como archivo, los documentos se mostrarán en la salida estándar (CANCELING -K). Recuerde que la combinación C-K normalmente se define solo para descargar un documento.

-Carolina del Norte.
--no-clavo
Si el archivo se descarga más de una vez en el mismo directorio, el comportamiento del WGET está determinado por varias claves, incluyendo -NC. En algunos casos, el archivo local será despedido o sobrescrito cuando se vuelva a descargar, en otros, guardados.
Cuando inicia un wget sin -n, -NC o -R descargar el mismo archivo en el mismo directorio, conduce a la copia de origen del archivo, y la nueva copia se escribe en el archivo de nombre.1. Si el archivo se descarga de nuevo, la tercera copia se llamará Archivo.2, etc. Si se especifica la tecla -NC, se suprime este comportamiento, WGET se niega a descargar nuevas copias del archivo. Por lo tanto, el "NO-CLOBBER" es el consumo incorrecto del término en este modo, no evita que los archivos que previenen (los sufijos digitales ya han evitado la comprensión), y creando múltiples copias.
Cuando inicia el wget con la tecla -R, pero sin -n o -NC, el reinicio del archivo lleva a sobrescribir al lugar del antiguo. Agregar -NC evita que dicho comportamiento guarde los archivos de origen de los archivos e ignorando las nuevas versiones en el servidor.
Cuando inicia el wget con -n, con o sin clave, la decisión de descarga en la nueva versión del archivo depende de las sellos y el tamaño de la hora local y remota del archivo. -NC no se puede especificar con -n.
Al especificar los archivos -NC con extensiones.html y.htm se cargarán desde el disco local y se procesará como si se descargaron de la red.

-C.
--Continuar.
Continuando con la inyección de un archivo parcialmente descargado. Esto es útil si necesita completar la descarga, iniciada por otro proceso de WGET u otro programa. Por ejemplo:

Wget -c ftp: //site/ls-lr.z

Si hay un archivo LS-LR.Z en el directorio actual, el WGTE lo considerará la primera parte del archivo remoto y solicita al servidor que continúe con la descarga desde el principio, igual a la longitud del archivo local.

No es necesario especificar esta clave para que el proceso actual de WGET continúe descargando cuando la pérdida de comunicación está a mitad de camino. Este es el comportamiento inicial. -Celeva solo las lesiones comenzó al proceso actual de WGET si ya existen archivos locales.

Sin -c, el ejemplo anterior guardará un archivo remoto en LS-LR.Z.1, dejando a LS-LR.Z sin cambios.

A partir de la versión 1.7 de Wget, al usar -C con un archivo no vacío, WGET se niega a iniciar primero la descarga si el servidor no admite la descarga, porque Esto llevaría a la pérdida de datos descargados. Elimine el archivo si desea comenzar a descargar nuevamente.

También a partir de la versión WGGET 1.7, cuando se usa -C, para un archivo igual al archivo de longitud, el WGTE se negará a descargar y mostrar el mensaje explicativo. Lo mismo sucede si el archivo remoto es menor que el local (tal vez se haya cambiado en el servidor desde el intento anterior), porque "Continuado" en este caso no tiene sentido, la descarga no se produce.

Por otro lado, cuando se usa -C, el archivo local se considerará desatado si la longitud del archivo remoto es mayor que la longitud local. En este caso (longitud (control remoto), el byte de longitud (local)) se descargará y se pegue hasta el final del archivo local. Este es un comportamiento esperado en algunos casos: por ejemplo, puede usar -c para descargar la nueva parte de los datos recopilados o el archivo de registro.

Sin embargo, si se cambió el archivo en el servidor, y no se acaba de completar, entonces obtendrá un archivo dañado. WGET no tiene mecanismos de comprobación si el archivo local es la parte inicial del archivo remoto. Debe ser especialmente atento al usar -c junto con -R, porque Cada archivo será considerado sin explotar.

El archivo mimado también se puede obtener cuando se usa -C -C con una curva de proxy HTTP, que agrega la línea TIM "obtenida". En futuras versiones, es posible agregar una llave de retroceso para corregir tales casos.

La tecla -C se puede usar solo con servidores FTP y HTTP que admiten el encabezado de rango.

--Progress \u003d tipo
Seleccione el tipo de indicador de trazo de inyección. Valores posibles: "punto" y "bar".
El indicador de tipo "barra" se usa de forma predeterminada. Muestra la barra de carga ASCII (el llamado "termómetro"). Si la salida no está en TTY, el valor predeterminado es el indicador de tipo "DOT".
Para cambiar al modo "DOT", especifique --progress \u003d Dot. El curso de descarga se rastrea y se muestra en la pantalla en forma de puntos, donde cada punto representa un tamaño fijo de los datos descargados.
Con una descarga de puntos, puede cambiar el estilo de salida especificando el estilo: Estilo. Varios estilos definen un valor diferente para un punto. De forma predeterminada, un punto representa 1k, 10 puntos forman un clúster, 50 puntos por fila. El estilo binario es una "computadora" más "computadora", 8K por punto, 16 puntos en el clúster y 48 puntos por línea (384k en línea). El estilo mega es el más adecuado para descargar archivos muy grandes: cada punto corresponde a 64k, 8 puntos en el clúster y 48 puntos en la cadena (la cadena corresponde a 3m).
El estilo predeterminado se puede establecer a través.WGetRC. Esta instalación puede ser anulada en la línea de comandos. La excepción es la prioridad de "punto" sobre "Barra", si la salida no está en TTY. Para la barra de uso indispensable, especifique --progress \u003d Bar: Force.

-NORTE.
--Marcando la hora.
Incluye el uso de marcas temporales.

-S.
--Server-Response
La salida de los encabezados y respuestas del servidor HTTP de los servidores FTP.

--araña.
Al comenzar con esta clave, WGET se comporta como una araña de red, no descarga páginas, pero solo revisa su presencia. Por ejemplo, usando WGET puede comprobar marcadores:

WGET - SPIDE - Force-html -i favoritos.html

Esta característica requiere un refinamiento grande para que WGTE llegue a la funcionalidad de las arañas reales.

-T segundos.
--Tiempout \u003d segundos.
Establece el tiempo de espera de la red en segundos segundos. Equivalente a especificar simultáneamente - Tiempo de espera, - Tiempo de espera de Condicional y - Tiempo de espera.
Cuando el WGE se conecta o lee de un host remoto, verifica el tiempo de espera e interrumpe la operación cuando haya caducado. Esto evita la aparición de anomalías, como la lectura observada o los intentos infinitos de conectarse. El único tiempo de espera establecido por defecto es de 900 segundos de tiempo de lectura. Establecer el tiempo de espera en 0 Cancela las verificaciones.
Si no sabe exactamente lo que está haciendo, es mejor no instalar ningún valor para las teclas de tiempo de espera.

--NS-Tiempo de tiempo \u003d segundos
Establece el tiempo de espera para las solicitudes de DNS en segundos segundos. Las solicitudes de DNS sin terminar no tendrán éxito. De forma predeterminada, no se instala un tiempo de espera para las solicitudes de DNS, además de los valores definidos por las bibliotecas del sistema.

--Connect-Timeout \u003d segundos
Establece el tiempo de conexión en segundos segundos. Las conexiones TCP que requieren más tiempo para instalar se cancelarán. De forma predeterminada, no se instala ningún tiempo de conexión, excepto los valores definidos por las bibliotecas del sistema.

- lectura-tiempout \u003d segundos
Establece el tiempo de lectura (y escribe) en segundos segundos. La lectura que requiere más tiempo no tendrá éxito. El valor predeterminado es de 900 segundos.

- tasa de limitación \u003d cantidad
Establece el límite de velocidad de descarga en el byte de la cantidad por segundo. El valor se puede expresar en bytes, kilobytes con un sufijo k o megabytes con un sufijo M. Por ejemplo, --Limit-tasa \u003d 20k establecerá un límite de velocidad de descarga en 20kb / s. Dicha restricción es útil, si, por alguna razón, no desea que WETGE no se deseche todo el ancho de banda accesible. WGET implementa un límite a través del sueño en el tiempo requerido después de la lectura de la red, que ocupó menos tiempo que el límite especificado. Como resultado, tal estrategia conduce a reducir la velocidad de la velocidad TCP de aproximadamente la restricción especificada. Sin embargo, se necesita un cierto tiempo para establecer un equilibrio, por lo que no se sorprenda si el límite funcionará mal para los archivos pequeños.

-W segundos.
--wait \u003d segundos.
Espere el número especificado de segundos de segundos entre las descargas. Se recomienda usar esta función para reducir la carga en el servidor reduciendo la frecuencia de las solicitudes. En lugar de segundos, el tiempo se puede indicar en minutos con un sufijo M, en horas con un sufijo H o días con un sufijo d.
Especificando lo más importante si el host de red o destino no está disponible, de modo que WGET esté esperando el tiempo suficiente para corregir la solución de problemas de la red hasta el siguiente intento.

- jaitretría \u003d segundos.
Si no desea que WEGE espere entre diferentes descargas, y solo entre intentos de descargas desgarradas, puede usar esta tecla. WGET aumentará linealmente la pausa, esperando 1 segundo después de la primera falla para este archivo, 2 segundos después de la segunda falla y así sucesivamente al valor máximo de los segundos. Por lo tanto, el valor de 10 hará que Wget espere hasta que (1 + 2 + ... + 10) \u003d 55 segundos en el archivo. Esta tecla está habilitada de forma predeterminada en el archivo global WGETRC.

--Random-espera.
Algunos sitios web pueden analizar registros para identificar las horas de balanceo, como Wget, estudiando similitudes estadísticas en pausas entre las solicitudes. Esta tecla establece pausas aleatorias en el rango de 0 a 2 * espere segundos donde el valor de espera se especifica por la clave: espere. Esto le permite excluir a WEGE de tal análisis. En un artículo reciente sobre el desarrollo de las plataformas de usuario populares, se presentó un código para llevar a cabo dicho análisis sobre la marcha. El autor sugirió bloquear las subredes de Clase C para bloquear los programas de descarga automática, a pesar del posible cambio de la dirección asignada a DHCP. Para crear la tecla, la espera, esta recomendación enferma bloquea a muchos usuarios inocentes por la culpa de uno.

-Y ON / OFF
--Proxy \u003d ON / OFF
Permite o desactiva el soporte proxy. Si se instala la variable de entorno correspondiente, el soporte proxy está habilitado de forma predeterminada.

-Q cupo .Q.
--Quota \u003d cuota.
Establece la cuota para descargas automáticas. El valor se indica en bytes (predeterminados), kilobytes (con Soffix K) o Megabytes (con el sufijo M). La cuota no afecta la descarga de un archivo. GZ, el archivo LS-LR.GZ se descargará por completo. Lo mismo sucede cuando especifica algunas URL en la línea de comandos. La cuota importa con la descarga recursiva o al especificar las direcciones en el archivo de entrada. Entonces Puede especificar de forma segura los sitios WEGGE -Q2M -I: la descarga se interrumpirá cuando se alcance la cuota. Los valores de configuración 0 o INF cancela las restricciones.

DNS-CACHE \u003d OFF
Desactiva el almacén de consulta DNS. Por lo general, el WGTE recuerda las direcciones solicitadas en DNS, por lo que no tiene que solicitar constantemente un servidor DNS sobre el mismo conjunto de direcciones (generalmente pequeño). Este caché existe solo en la memoria. El nuevo proceso WEGGE solicitará a DNS nuevamente. Sin embargo, en algunos casos, el almacenamiento en caché de direcciones no es deseable incluso en un corto período de lanzamiento de dicha aplicación como WGTE. Por ejemplo, los servidores SECANT HTTP tienen direcciones IP asignadas dinámicamente que cambian de vez en cuando. Sus registros DNS se actualizan cada vez. Si la descarga de WGET de un host de este tipo se interrumpe debido al cambio de la dirección IP, el WGTE repite el intento de descarga, pero (debido al almacenamiento en caché de DNS) está tratando de conectarse a la dirección anterior. Con el almacenamiento en caché de DNS WGTE, las solicitudes de DNS realizarán solicitudes de DNS cada vez y, por lo tanto, para recibir la dirección dinámica correcta. Si no entiende la descripción anterior, esta clave es más probable que no sea necesaria.

--Restricto-Nombres de archivos \u003d MODO
Establece qué conjuntos de caracteres se pueden usar al crear un nombre de archivo local de la dirección URL eliminada. Los símbolos prohibidos por esta clave están protegidos, es decir, Reemplazado por% HH, donde HH es un código hexadecimal del personaje correspondiente. De forma predeterminada, los caracteres de Shields wget no sean parte del nombre del archivo en su sistema operativo, así como los caracteres de control, como regla general, no impresión. Esta clave es útil para cambiar los valores predeterminados si guarda el archivo en una sección no modular o desea cancelar el blindaje de los caracteres de control. Cuando el modo se establece en "Unix", goget capturas de pantalla / y controles de control en los rangos de 0-31 y 128-159. Este es un valor predeterminado para Unix Type OS. Cuando el modo se establece en "Windows", caracteres de rastros de WGET \\, |, /,:, ",", * y los caracteres de control en rangos 0-31 y 128-159. Además, WGET en modo Windows usa + en lugar: Separar el host y los puertos en los nombres de archivos locales y en su lugar. Para comparar la solicitud de solicitud del nombre del archivo del resto. Por lo tanto, la dirección URL almacenada en UNIX es ¿cómo www..pl? Entrada \u003d Bhah, en modo Windows ser guardado como [Correo electrónico protegido]\u003d bla. Este modo se utiliza de forma predeterminada en Windows. Si se agrega al modo, NOCONTROL, por ejemplo, UNIX, NOCONTROL, el blindaje de los caracteres de control se apaga. Puede usar - reestruct-limited-nombres \u003d noncontrol para deshabilitar el blindaje de caracteres de control sin afectar la selección del modo de detección dependiente del sistema operativo de los símbolos de servicio.

Catálogos de llaves

-Dakota del Norte
--no-directorios.
No cree estructura de directorio con descarga recursiva. Con esta clave, todos los archivos se guardan en el directorio actual sin la limpieza (si el nombre se encuentra más de una vez, los nombres recibirán sufix.n).

-X.
- Force-directorios.
Reverso -nd: crea una estructura de directorios, incluso si no se crea, de lo contrario, se guardará el archivo en el sitio / robots.txt.

-Nueva Hampshire.
--No-directorios anfitrionas
Desactiva la creación de un catálogo de host ....en /. Esta clave cancela tal comportamiento.

- Protocolo-directorios.
Use el nombre del protocolo como un componente de directorio para archivos locales. Por ejemplo, con esta clave wget -r http: // host guardará http / host / ... en lugar de host / ....

--Cut-dirs \u003d número
Ignore el número de niveles de anidamiento de directorios. Esta es una clave útil para administrar claramente el directorio para guardar el contenido descargado recursivamente. Al descargar con -R, se guardará una copia local en FTP .. Si la tecla -nH puede eliminar ftp .. Aquí se trata de la ayuda. Corte-dirs; Causa que Wget cierre los ojos en el número de subdirectorios remotos. A continuación se muestran varios ejemplos de trabajo --Cut-Drs.

No hay opciones -\u003e FTP. -NH -\u003e pub / xxx / -nh --cut-dirs \u003d 1 -\u003e xxx / -nh --cut-dirs \u003d 2 -\u003e. --Cut-dirs \u003d 1 -\u003e ftp.sype / xxx /

Si solo necesita deshacerse de la estructura del directorio, entonces esta tecla se puede reemplazar con una combinación de -ND y -P. Sin embargo, en contraste con -nd, --Cut-Dirs no pierde subdirectorios, por ejemplo, con -NH --CUT-DIRS \u003d 1, el subdirectorio beta / se guardará como XXX / BETA, como se esperaba.

-P Prefijo.
- Firector-prefijo \u003d prefijo
Instala el directorio raíz en el prefijo. El directorio raíz es un directorio donde se guardarán todos los archivos y subdirectorios, es decir, El vértice del árbol descargado. Defecto. (Catálogo actual).

Llaves http

-MI.
--HTML-Extensión
Esta tecla se suma al nombre del archivo local. La extensión extension. Esto es útil, por ejemplo, cuando se refleja los sitios usando.asp Páginas cuando desea que el espejo trabaje en el servidor de Apache habitual. También es útil al descargar contenido generado dinámicamente. URL del http://site.com/article.cgi?25 se guardará como article.cgi? 25.html. Las páginas así almacenadas se descargarán y sobrescribirán con cada reflejo posterior, porque WGTE no puede coincidir con el archivo local x.html en la dirección Remote URL X (aún no sabe que la URL devuelve una respuesta de texto / html o aplicación / XHTML + XML). Para evitar la recarga, use las teclas -k y -k, de modo que la versión original se guarde como X.OIG.

--HTTP-USER \u003d USUARIO
--http-passwd \u003d contraseña
Especifica la contraseña de usuario y contraseña de nombre de usuario para acceder al servidor HTTP. Dependiendo del tipo de consulta WGET, los códaliza con un esquema de autorización convencional (desprotegido) o digerir. Otra forma de especificar un nombre de usuario y la contraseña está en la URL en sí. Cualquier forma de revelar su contraseña a todos los que se ejecutarán Ps. Para evitar las revelaciones de la contraseña, guárdelas en archivos.wgetrc o.netrc y asegúrese de que estos archivos no estén disponibles para otros usuarios utilizando CHMOD. No se recomienda que las contraseñas particulares sean almacenadas incluso en estos archivos. Coloque las contraseñas a los archivos, y luego elimíne inmediatamente después del inicio del WGTE.

--no-caché.
Desactiva el almacenamiento en caché en el lado del servidor. En esta situación, WETGE envía la Directiva correspondiente (PRAGMA: NO-CACHE) para recibir una versión actualizada, en lugar de en caché del archivo. Esto es especialmente útil para borrar documentos desactualizados en servidores proxy. Keching está permitido por defecto.

--no galletas
Desactiva el uso de cookies. Las cookies son un mecanismo de soporte del servidor. El servidor envía una cookie a la cooperativa con el encabezado de cookies establecidos, el cliente incluye esta cookie en todas las solicitudes posteriores. Porque Las cookies permiten a los propietarios de servidores rastrear a los visitantes e intercambiar esta información entre sitios, algunos consideran una violación de la confidencialidad. Por defecto, se utilizan cookies; Sin embargo, la factura de cookies no se realiza de forma predeterminada.

Archivo de cookies-cookies
Descargue cookies de archivo de archivo a la primera solicitud HTTP. Archivo: un archivo de texto en el formato que se usó originalmente para el archivo Cookies.txt Netscape. Por lo general, se requiere esta opción para reflejar sitios que requieren autorización para parte o para todo el contenido. La autorización generalmente se realiza con el servidor de cookies HTTP después de recibir y verificar la información de registro. En el futuro, la cookie se envía al navegador al ver esta parte del sitio y proporciona identificación. La duplicación de un sitio de este tipo requiere de la alimentación WGET de las mismas cookies que el navegador. Se logra a través de - Cookies: solo especifique la ubicación WEGET de su cookies.txt, y le enviará las cookies de observador idéntico. Diferentes navegadores almacenan cookies en diferentes lugares: Netscape 4.x. ~ / .Netscape / cookies.txt. Mozilla y Netscape 6.x. La cookie en Mozilla también se llama cookies.txt, ubicada en algún lugar dentro de ~ / .mozilla en el directorio de su perfil. El camino completo generalmente se parece a ~ / .mozilla / predeterminado / algunos-string-string / cookies.txt. Explorador de Internet. Se puede recibir una cookie para WGTE a través del menú Archivo, Importar y Exportar, Exportar cookies. Probado en Internet Explorer 5; El trabajo con versiones anteriores no está garantizado. Otros navegadores. Si usa otro navegador, las cookies solo funcionarán si el formato de archivo corresponderá al formato NetScape, es decir, Lo que espera a Wget. Si no puede usar cookies, puede haber otra alternativa. Si el navegador tiene "GOOKIE Manager", puede ver las cookies necesarias para reflejarlo. Anote el nombre y el valor de las cookies, y especifique manualmente su soporte "oficial" de WEGGETPEY:

Wget --cookies \u003d off --header "Cookie: Name \u003d Value"

- archivo de galletas
Guardar las cookies en el archivo antes de salir. Esta opción no guarda las cookies y las cookies existidas sin cierto tiempo de vencimiento (las llamadas "cookies de sesión"). Véase también - Mantenimiento de la sesión-cookies.

- Galletas de la sesión-sesión.
Al especificar, las cookiesAve Galles ahorran cookies de sesión. Por lo general, las cookies de sesión no se guardan, ya que se entiende que se olvidarán después de cerrar el navegador. Su guardado es útil para sitios que requieren autorización para acceder a las páginas. Al usar esta opción, diferentes procesos de WGET para el sitio se verán como un navegador. Porque Normalmente, el formato de archivo de cookies no contiene cookies de sesión, las marcas de WEGTS su sello de tiempo 0. - Cookies lo perciben como cookies de sesión, pero puede causar problemas de otros navegadores cargados de esta manera. Las cookies se interpretan como cookies de sesión, Es decir, para ellos, ahorrar con - Las cookies de ASAVE deben especificarse nuevamente: Galletas de Sesión-Sesión.

- Longitud delgnore.
Desafortunadamente, algunos servidores HTTP (programas de CGI, más precisamente) envían un encabezado de longitud de contenido incorrecto, que reduce la locura del wetget, porque Piensa que el documento no fue completamente descargado. Este síndrome se puede observar si WGTE es una y otra vez, y nuevamente, intenta descargar el mismo documento, cada vez que especifique la interrupción de la conexión en el mismo byte. Con esta clave WGET, ignora el encabezado de la longitud del contenido, como si nunca fuera.

--Ader \u003d encabezado adicional
Especifique el encabezado de encabezado adicional adicional para enviar un servidor HTTP. Los encabezados deben contener ":" después de uno o más caracteres no vacíos y contienen brevemente la traducción de la cadena. Puede especificar varios encabezados adicionales utilizando la tecla --hader varias veces.

Wget --ader \u003d "acept-charset: ISO-8859-2" --ader \u003d "Aceptar-Idioma: HR" http://aaa.hr/

Una indicación de un encabezado de cadena vacío borra todos los titulares personalizados especificados anteriormente.

--Proxy-user \u003d usuario
--Proxy-passwd \u003d contraseña
Especifica la contraseña de usuario y contraseña de nombre de usuario para obtener autorización en un servidor proxy. WGET los codifica utilizando el esquema de autorización básica. Aquí están las mismas consideraciones de seguridad que para la clave --HTTP-PASSWD.

--Referer \u003d URL
Incluye a solicitud del encabezado "Referido: URL. Útil Si al emitir un documento, el servidor cree que se comunica con el navegador interactivo, y verifica el campo del árbitro contiene la página que indica el documento solicitado.

--Acave encabezados.
Guarda los encabezados de respuesta HTTP al archivo directamente antes del contenido, se utiliza una cadena vacía como separador.

-U agent-string
--User-agente \u003d agente-cadena
Se identifica como observador de agente-cadena para el servidor HTTP. El protocolo HTTP le permite identificar a los clientes utilizando el campo de encabezado del agente de usuario. Esto le permite distinguir el software, generalmente para las estadísticas o los trastornos del protocolo de seguimiento. WGTE se identifica generalmente como wget / versión, donde la versión es la versión actual de WGTET. Sin embargo, algunos sitios tienen una política de adaptación de salida para el navegador en función del campo del agente de usuario. En principio, esta no es una mala idea, pero algunos servidores negaron el acceso a los clientes, excepto Mozilla y Microsoft Internet Explorer. Esta clave le permite cambiar el valor del agente de usuario emitido por WGET. No se recomienda usar esta tecla si no está seguro de lo que está haciendo.

--Post-data \u003d cadena
- Post-Archivo \u003d Archivo
Utiliza el método POST para todas las solicitudes de HTTP y envía los datos especificados en la consulta. - Post-Data envía una cadena de cadena como cadena de datos, y --post-file - los contenidos del archivo de archivo. De lo contrario, trabajan igualmente. Tenga en cuenta que WGTE debe conocer inicialmente la duración de la solicitud posterior. El argumento de la tecla de archivo -post debe ser un archivo regular; Nota FIFO en el formulario / dev / stdin no funcionará. No está del todo claro cómo esta restricción se puede evitar en HTTP / 1.0. Aunque HTTP / 1.1 introduce la parte de la cual no requiere una longitud inicial de longitud, el cliente no puede usarlo si no está seguro de que se comunica con HTTP / 1.1 Server. Y no puede saber esto hasta que reciba una respuesta, que, a su vez, llega a una solicitud completa. El problema de los huevos y el pollo. Nota: Si el WGTE recibe la redirección en respuesta a la solicitud de POST, no enviará datos de publicación en Redirect URLS. A menudo, la dirección de procesamiento de la URL se le da una redirección a una página regular (aunque está técnicamente prohibida), lo que no quiere tomar poste. Todavía no está claro si tal comportamiento es óptimo; Si no funciona, se cambiará. El siguiente ejemplo demuestra cómo iniciar sesión en el servidor utilizando POST y luego descargue las páginas deseadas disponibles solo para usuarios autorizados:

WEGGE - COOKIES DE COOKIES DE COOKIES..PP WEGTE - COOKIES DE COOKIES.TXT -P http://server.com/interesting/article.php

Configurando wget.

Los principales mensajeros que necesitan escribir cada vez que puede especificar en el archivo de configuración del programa. Para hacer esto, vaya al directorio de trabajo WEGTE, encuentre el archivo Sample.WGetRC allí, cambie el nombre en .wgetrc. Y el editor escribirá los parámetros de configuración necesarios.

User-agent \u003d "Mozilla / 5.0" intenta \u003d 5 Número de intentos Descargar, espere \u003d 0 No continúe \u003d en Pauses Debe descargar Dir_Prefix \u003d ~ / descargas / Dónde doblar la descarga Uso_proxy \u003d ON - Utilice el proxy http_proxy - Las características de su servidor proxy.

  • Establezca la variable de entorno WGETRC especificando la ruta completa a ella.
  • Establezca la variable de inicio en la que especifique la ruta a la carpeta de inicio del usuario (C: \\ Documentos y Configuración \\ Jonh). Luego, el WGTE buscará el archivo "WGETRC" en esta carpeta.
  • Además, puede crear un archivo wget.ini en la misma carpeta donde hay un wget.exe, y configurar los parámetros opcionales de WEGGE MARMANDILLE.

La información útil sobre WETGE se puede aprender aquí:

  • Phantomjs: use si necesita descargar el sitio, parte de los datos en los que se carga con JavaScript

Introducción a gnu wget

GNU WGTE es un paquete de software gratuito para recuperar archivos utilizando HTTP, HTTPS, FTP y FTPS los protocolos de Internet más utilizados. Es una herramienta de la línea de comandos no interactiva, por lo que puede llamarse fácilmente de scripts, trabajos, terminales sin soporte de X-Windows, etc.

GNU WGTE tiene muchas características para recuperar archivos grandes o reflejar a los sitios complejos web o FTP, incluyendo:

  • Puede reanudar las descargas abortadas, usando y
  • Puede usar FileName Wild Cards y los directorios recursivamente espejo.
  • Archivos de mensajes basados \u200b\u200ben NLS para muchos idiomas diferentes
  • Convierte opcionalmente los enlaces absolutos en los documentos descargados para relativos, por lo que los documentos descargados pueden enlazarse entre sí localmente
  • Se ejecuta en la mayoría de los sistemas operativos similares a Unix, así como a Microsoft Windows
  • Soporta proxies HTTP
  • Soporta cookies HTTP
  • Admite conexiones HTTP persistentes
  • Operación desatendida / de fondo
  • Use marcas de tiempo local para determinar si los documentos deben volver a descargarse cuando se refleje
  • GNU WGTGE se distribuye bajo la licencia pública general de GNU.

El código fuente para GNU WGTE se puede encontrar aquí o en nuestros espejos.
Para obtener más opciones de descarga, consulte las Preguntas frecuentes.

Documentación

La documentación de GNU WEGE se puede encontrar aquí.
Para manuales de otros paquetes de GNU, consulte www.gnu.org.

INFORMACIÓN ADICIONAL.

Actualmente se está desarrollando gnu wget2.
Por favor, ayúdenos si puede con las pruebas, documentos, organización, desarrollo, ... nos vemos en el sitio de colaboración wget2

Mantenedor.

La GNU WGTE está siendo mantenida actualmente por Tim Rühsen, Darshit Shah y Giuseppe Scrivano.
El autor original de GNU WGTE es HRVOJE NIKŠIć.
Por favor. hacer. no. Póngase directamente a los informes de errores, o las solicitudes de ayuda con WGET: de eso es la lista de correo; Por favor, úselo en su lugar.

Donadores.

Nosotros, THE THE THE TIPO3 & MAGENTO Partner AoE Media para donar al proyecto WGET.

wget - dama descargas
(Descargue archivos y sitios de Internet en GNU / Linux)

Sobre el amor wget tantas canciones spito
Cantaré, cantarás, uno más ...

Romance de K / F "Tres más"

Una tarea: Quiero Teleport Pro y Flashget para Linux, descargar sitios y archivos.

Decisión: Descubre por ti mismo wetget. - Todo está en una botella y aún más.

A menudo se busca un montón de programas gráficos con varios botones, pero hay una utilidad que puede reemplazarlos y proporcionar las posibilidades que ya no están en ninguna parte.

eso wetget. Y todo lo que se basa en ello. El desarrollo de esta utilidad requiere algún esfuerzo y al menos una lectura rápida del manual, pero a cambio recibe una utilidad poderosa que ahorrará su tiempo y tráfico.

Vale la pena decir que hombre wget. A primera vista, hace una impresión aplastante, pero luego entiende que no se necesitan todas las opciones en el uso diario. A continuación se presentan las opciones más utilizadas.

Usando un "Flashget para Linux"

Solo necesita descargar un archivo y / o continuar descargando, lo que se interrumpió. Es muy y muy fácil de hacer, escribiendo varias líneas en la terminal.

Simplemente descargue el archivo wget:

$ wget ftp://vasya.pupkin.com/film.avi.

Otra opción: parte del archivo descargado, la descarga fue cortada.

Para continuar la descarga del archivo, escriba:

$ wget -c ftp://vasya.pupkin.com/film.avi o $ wetget -continue ftp://vasya.pupkin.com/film.avi

En su lugar, es posible escribir: continuar, ya que cada clave tiene una forma corta y larga: las llaves largas son más fáciles de recordar, pero para escribir más tiempo. Puedes mezclar fácilmente varios formularios de escritura.

Para bombear archivos de la lista que contiene enlaces directos:

$ WGET-II PUPKINLIST O $ WGET-INICIO-FILE \u003d PUPKINLIST

Solo se indica aquí expedienteque contiene enlaces. El archivo también puede ser una página HTML en la que hay enlaces.

Windows. Instalación de WGET en Windows XP / 7/8 / 8.1 / 10

Se venderán a cabo el comando anterior.

Use A LA "TELEPORT PRO para Linux"

Al descargar más oportunidades de sitios web, y por lo tanto, se requieren más claves. Nuevamente, no es necesario recordarlos, puede hacer un guión (y mejor, un poco, para diferentes casos) y causarlos.

Sitios de reflejo en el coche local:

$ wget -m http://www.vasyapupkin.com/

Copiando el sitio para la visualización local:

$ Wget -r -l0 -np -k http://www.vasyapupkin.com/

Esto incluirá una descarga recursiva (clave -R, -Recursive), es decir, no solo los archivos de la página principal, sino también a todos los demás en los que conduce los enlaces (Key -L0 Infinite Reference Nesting).

Los nombres de enlaces se convertirán a LOCAL para la comodidad de la visualización (Key -k). Además, utilizando la tecla -NP (NO-Parrent), puede prohibir la escalada de WGGE por encima de la dirección inicial durante la descarga recursiva, es decir, si copia http://home.vasyapupkin.com/ este enlace desde el sitio principal http: // www. Vasyapupkin.com/ no será copiado.

Varias llaves útiles

Habilitando y excluyendo los archivos al cargar:

A aclist o -accept ACCLIST -R REJIST o-REJIST REJIST

Especifica los archivos compartidos por plantillas de comas que deben descargarse (acclist) o ignorar (Rejlist).

K o -convert-enlaces

Enciende los enlaces absolutos (escriba http: // www ...) a relativo (tipo de archivo /// home / vasya / www / index.html) para la conveniencia de la visualización local. Para ver el sitio descargado en el navegador localmente, abra el archivo index.html en el navegador y root a lo largo de los enlaces como si estuviera conectado a Internet.

H o -span-hosts

Permite los datos de descarga de WGET de cualquier dirección a la que hay un enlace en el documento solicitado.

P o -page-requisitos

Carga todos los archivos que se necesitan para mostrar las páginas HTML. Por ejemplo: dibujos, sanos y estilos de cascada. Después de completar la descarga, convierte enlaces a un documento para ver fuera de línea. Esto se refiere no solo a referencias visibles a otros documentos, y enlaces a todos los archivos locales externos.

siteGet - Un script simple para descargar sitios

Si estás cansado de toda esta sabiduría con llaves. wetget. Y solo necesitas descargar el sitio, entonces siteGet. Definitivamente te gustará. Este es un script bastante simple con los parámetros necesarios para descargar el sitio.

Puedes descargar el script desde aquí. Después de la descarga, tiene sentido copiarlo en un modo de superusuario a uno de los directorios prescritos en la variable de ruta de $ $: El sistema operativo los escanea automáticamente en busca de archivos ejecutables. Por ejemplo, al directorio. / Usuario / local / bin:

# Cp (directorio donde se encuentra la secuencia de comandos) / siecet / usuario / local / bin / siecet

El script también necesita asignar un atributo de archivo ejecutable:

# CHMOD A + X / USR / LOCAL / BIN / SEEGET

Utilizando siteGet. Muy simple:

$ Sitecome http://www.vasyapupkin.com/

Departamento de MDA bíblico, 2008.
Última actualización:
Dirección en Internet: http://www.bible-mda.ru/soft/wget/wget.html

Simplemente descargar archivo Wget:

wget ftp://vasya.pupkin.com/film.avi.

Para continuar la inyección rota Nosotros escribimos:

wget -c ftp://vasya.pupkin.com/film.avi.

wget -continue ftp://vasya.pupkin.com/film.avi.

Como en otros programas, las llaves tienen una forma corta y larga, y en su lugar puedes escribir. Las llaves largas son más fáciles de recordar, pero escribir más tiempo. Puedes mezclar fácilmente varios formularios de escritura.

A despliegue los archivos de la listaque contiene enlaces directos:

wget -i pupkinlist.txt

wget -enput-file \u003d pupkinlist.txt

Aquí solo el archivo contiene enlaces. El archivo también puede ser, en el que hay enlaces. Se venderán a cabo el comando anterior.

Use A LA "TELEPORT PRO para Linux".

Al descargar más oportunidades de sitios web, y por lo tanto, se requieren más claves.

Nuevamente, no es necesario recordarlos, puede hacer un guión (y mejor, un poco, para diferentes casos) y causarlos.

Por lo tanto, si hay un sitio web, y me gustaría tener su copia local en la computadora, de modo que, apagándose de la red, fue posible que no tenga prisa por leerlo.

Sitios de reflejo en el coche local:

wget -m http://www.vasyapupkin.com/

equivalentemente, estas opciones se describen a continuación.

Copiando el sitio para la visualización local (con reemplazo de enlaces a Internet a las direcciones locales páginas descargadas):

wget -r -l0 -k http://www.vasyapupkin.com/

Esto incluirá una descarga recursiva (clave -R, -Recursive),

En WGET, hay una gran cantidad de opciones útiles, más que teletransportador "y banderas. Estar envuelto en un script, por ejemplo, y se puso un lugar destacado (especificado en), tenemos facilidad de uso y riqueza de configuración.

No se levante por encima de la dirección inicial durante la descarga recursiva.

Habilite los directorios de visualización recursivos y subdirectorios en un servidor remoto.

Determine la profundidad máxima de recursión igual a la profundidad al ver directorios en un servidor remoto. Profundidad predeterminada \u003d 5.

No vaya al directorio principal mientras busca archivos. Esta es una propiedad muy útil porque garantiza que solo se copien aquellos archivos que están por debajo de una cierta jerarquía.

Una lista de nombres de archivos separados por comas, que deben (aceptar) o no debe (rechazar) descargar. Se permite establecer los nombres de archivos en la máscara.

Wget para ventanas. Instalación y uso.

Gire los enlaces absolutos en el documento a los enlaces relativos. Solo las referencias que indican las páginas descargadas en realidad se convertirán; El resto no se transformará. Tenga en cuenta que solo al final del trabajo de WGET, podrá descubrir qué páginas estaban realmente cargadas. En consecuencia, solo al final del trabajo de Wget se realizará la transformación final.

Especifique el nombre de usuario y la contraseña Inserver.

Le permite visitar cualquier servidor al que hay un enlace.

Descargue todos los archivos que sean necesarios para mostrar las páginas. Por ejemplo: dibujos, sonido, estilos de cascada (). De forma predeterminada, tales archivos no están cargados. Los parámetros y especificados pueden ayudar, pero porque WGET no distingue a los documentos externos e internos, entonces no hay garantía de que se cargarán todos los requisitos.

Enlaces

Información sobre el programa.

WGET es una utilidad de consola para descargar archivos utilizando HTTP, protocolos FTP y conexiones proxy.

wget para ventanas.

El programa le permite copiar sitios HTML simples mientras se guarda la estructura de directorios. Le permite encontrar y procesar los datos de robots.txt, es capaz de convertir enlaces para el acceso fuera de línea posterior. Contiene una herramienta para comparar encabezados de archivos para descargar nuevas versiones y crear copias de espejo.

La aplicación admite la reanudación del trabajo cuando se produce un error o rompiendo el acoplamiento, un salto recursivo que indica la máscara de nombre y la profundidad de los enlaces de ejercicio. Es capaz de iniciar sesión en el servidor FTP, conecte en el fondo a los sitios HTTPS protegidos.

El programa es capaz de realizar un registro detallado, es el medio óptimo para crear espejos de almacenamiento remoto o recursos web, transmitiendo datos de servidores FTP.

Descarga gratuita versión rusa completa de WGET desde el sitio oficial sin registro y SMS.

Requisitos del sistema

  • OS admitido: Windows XP, 7, 10, 8, Vista, 8.1
  • Picture: 32 bits, x86, 64 bits

Wget - Console Bootloader para descargar sitios y su uso en Windows

la utilidad de la consola WGET para descargar archivos / sitios, puede desplazarse de forma recursivamente, siguiendo los enlaces automáticamente.

Equipo Descripción
wget http://example.com/file.zip. descargue archivo File.zip en el directorio actual
wget -p / ruta / para guardar http://example.com/file.zip descargar archivo.zip archivo en directorio / ruta / para guardar
wget -c http://example.com/file.zip. cambiar archivo File.zip en casos de acantilado
wget -o arch.zip http://example.com/file.zip descarga archivo File.zip y guardando bajo el nombre arch.zip
wget -i archivos.txt descargar archivos de la lista en archivos.txt
wget -tries \u003d 10 http://example.com/file.zip número de intentos de descarga
wget -q5m -i http://example.com/ cuota Para el tamaño máximo de los archivos descargados, la cuota es válida solo con descarga recursiva (-R)
wget -save-cookies cookies.txt -post-data 'username \u003d PROFT & Password \u003d 1' http://example.com/auth.php identificación en el servidor con la preservación del cocinero para el acceso posterior.
wget -user-agent \u003d »Mozilla / 5.0 (X11; Linux x86_64) AppleWebkit / 536.5 (KHTML, Like Gecko) Chrome / 19.0.1084.9 Safari / 536.5" http://example.com/ nota Agente de usuario.
echo 'wett http://example.com/file.zip' | a las 12:00 descargar http://example.com/file.zip a las 12:00 al directorio actual
wget ftp://example.com/dir/*.zip.
wget http://example.com/dir/file (1..10) .ZIP. descargar todos los archivos por plantilla
wget -s http://example.com/ salida HTTP Server Headers and Respesses servidores FTP
wetget -spider -i urls.txt revise los enlaces en el archivo para la disponibilidad
wget -b http://example.com/file.zip. descargando un archivo en el fondo, el registro está escrito en wget.log, wget.log.1, etc.
exportar http_proxy \u003d http: //proxy.com: 3128 /; wget http://example.com/file.zip descargar archivo * file.zip * a través de proxy
wget -m -w 2 http://example.com/ reflejo del sitio con la preservación de enlaces absolutos y esperando 2 segundos entre las solicitudes.
wget -limit-rate \u003d 200k http://example.com/file.zip restringiendo la velocidad de descarga
wget -r bmp http://example.com/ no descargues archivos BMP
wget -a png, jpg http://example.com/ descarga solo archivos PNG y JPG

Ejemplo de uso para descargar documentación. Django.:

  • - Caminamos en los enlaces (descarga recursiva)
  • - Convertir enlaces a especies locales.
  • - Descarga de recursos necesarios para mostrar una página HTML (estilos, imágenes, etc.)
  • - la profundidad de descarga, 0 - Enlaces de anidación infinitos
  • - No sobrescriba los archivos existentes
  • - No subirse por encima de la dirección inicial durante la descarga recursiva

Utilizado a menudo wetget. Los parámetros se pueden sacar en ~ / .wgetrc.

utilidad de datos de la consola con la sintaxis de la URL, admite el dict, el archivo, FTP, FTP, GOPHER, HTTP, HTTPS, IMAP, IMAP, LDAP, LDAP, POP3, POP3S, RTMP, RTTP, SCP, SFTP, SMTPS SMTP, TELNET y TFTP.

Equipo Descripción
curl http://proft.me. obtenemos el contenido de la página principal.
curl -o index.html http://proft.me obtenga el contenido de la página principal en el archivo index.html
cURL -L http://example.com. cuando recibe los contenidos de la página para seguir las redirecciones (si las hay)
nombre de usuario de Curl -U: contraseña http://example.com/login/ obtención de una página oculta para la autenticación HTTP básica
curl -x proxy.com:3128 http://proft.me obtención de una página usando proxy
curl -i Proft.me. obtenemos encabezados HTTP del sitio
curl -H 'Host: google.ru' http://proft.me cree un dominio al acceder al servidor (transfiriendo su encabezado)
curl -Request Post "http://example.com/form/" -data "field1 \u003d value1 & field2 \u003d value2"
curl -x Publicar "http://example.com/form/" -data "field1 \u003d value1 & field2 \u003d value2" transferencia de datos post-consulta
curl -X Post -H "Tipo de contenido: Aplicación / JSON" -D '"Título": »Comando», »Año»: »1985"' 'http://example.com/api/movies/ solicitud de poste de transferencia de datos, datos JSON
curl -Request Pon "http://example.com/api/movie/1/" -data "title \u003d djangoonchinen" transferencia de datos PULT-SOLICITUD
curl -f. [Correo electrónico protegido] -F enviar \u003d OK http://example.com/upload/ descargar File.zip File Forma (Multipart / Form-Data)
nombre de usuario de Curl -U: contraseña -o ftp://example.com/file.zip descargar archivo con ftp
curl -U Nombre de usuario: contraseña -t file.zip ftp://example.com/ descargar archivo FTP
curl -Cookie "LOGIN \u003d PROFT" http://example.com/login/ instalar cookies
curl -Cookie-jar Cookies.txt http://example.com galletas para guardar
curl -Cookie Cookies.txt http://example.com/login/ uso de cookies conservadas.

Ficción adicional

ÑU. Wetget. - Es pequeña utilidad útil y abiertamente desplazada para descargar archivos de Internet. Admite protocolos HTTP, HTTPS y FTP, descargue desde los servidores proxy HTTP. Vale la pena señalar las características del programa:

  • Sitio que anula: WETGE puede continuar con los enlaces en las páginas HTML y crear copias locales de los sitios web remotos, mientras que es posible restaurar completamente la estructura de la carpeta del sitio ("Descarga recursiva": descarga recursiva). Durante dicho trabajo, WGTE está buscando un archivo con acceso a robots (/robots.txt). También es posible convertir enlaces a los archivos HTML descargados para ver más visualización del sitio sin conexión ("Navegación fuera de línea").
  • Revise los encabezados de archivo: WGET puede leer los encabezados de archivos (esto está disponible a través de protocolos HTTP y FTP) y compárelos con los titulares de los archivos descargados anteriormente, después de lo cual puede descargar nuevas versiones de archivos. Esto le permite usar WGET para duplicar sitios o conjuntos de archivos en FTP.
  • Descarga continua: si el problema se produce durante la descarga, el WGTE intentará continuar descargando el archivo. Si el servidor desde el que se carga el archivo, admite el archivo al archivo, entonces el WGET continuará descargando el archivo desde el lugar donde estalló la descarga.

Archivos de configuración:

/ Usr / local / etc / wgetrc - La ubicación del archivo de configuración predeterminado.
.WGETRC: el archivo de configuración del usuario de un usuario en particular (no está en SNACHY como en la carpeta de este usuario).

Sintaxis:

wget [ parámetros] [Url]

Parámetros:

  • -V (--version) - Muestra la versión WGET.
  • -H (--Help): muestra los parámetros de la línea de comandos WGET.
  • -B (--background) - Ir al modo de fondo después del lanzamiento. Si el archivo para mensajes no está especificado por el parámetro -o, entonces está escrito en wetget-log.
  • -MI. comando (--ejecutar. comando) -Llevar a cabo mando. Como si fuera parte .wgetrc.. El comando se ejecutará después de los comandos en .wgetrc..

Opciones de mensaje:

  • -o. archivo de registro (- Subir - archivo \u003d archivo de registro) -Escribe todos los mensajes en archivo de registro.. De lo contrario, se dirigirán a STDERR.
  • -a. archivo de registro (--Append-Output \u003d archivo de registro) -Adicional archivo de registro.. Como -o, solo archivo de registro. No reemplazado, sino complementado. Si un archivo de registro. No hay que, se crea un nuevo archivo.
  • -D (--Bug): muestra los mensajes de depuración: información diferente, importante para los desarrolladores de WGET.
  • -Q (--quiet) - Apague los mensajes de WGET.
  • -V (--verboso): habilite los mensajes detallados, con todos los datos disponibles. Predeterminado incluido.
  • -NV (--non-verbose) - Iceoplizar los mensajes abreviados (para apagar los mensajes, ver -Q). Se mostrarán los mensajes de error y la información básica.
  • -I. archivo (--Enput-file \u003d archivo) -Leer URL OUT archivo. En este caso, no necesita especificar la URL en la línea de comandos. Si la URL también se especifica en la línea de comandos y en archivo, Primero, la URL se descargará desde la línea de comandos. archivo No tiene que tener un formato HTML (pero nada terrible, de ser así), la URL simplemente debe indicarse en ella. (Si especifica: force-HTML, el archivo se lea como HTML. En este caso, se pueden evitar problemas con las referencias relativas agregándolas. "O entrada en la línea de comandos --Base \u003d url.)
  • -F (-Force-HTML): cuando lee la URL desde el archivo, incluye leer un archivo como HTML. Para evitar errores en el caso del archivo HTML local, agregue al archivo " "O ingrese el parámetro de la línea de comandos --Base.
  • -B. Url (--Base \u003d. URL) -Al leer la URL desde el archivo (-F) define Url, agregado a los destinos relativos del archivo especificado por el parámetro -I.

Cargando

  • --Bind-Dirección \u003d Habla a -Cuando las conexiones a través de TCP / IP transmiten "BIND ()" en Habla a en una máquina local. EN Habla a Se puede indicar tanto el nombre de host como la dirección IP. Se utiliza si su computadora tiene varias direcciones IP.
  • -t. número (- TRIES \u003d. número) -Establece el número de repeticiones. número. Especifique 0 o INF para cancelar repeticiones.
  • -O. archivo(--Output-Document \u003d archivo) -Los documentos no se registrarán en los archivos relevantes, y se combinarán y se registrarán en el archivo. archivo. Si un archivo Hay, será reemplazado. Si un archivo Especificado, como -, los documentos se mostrarán en la salida estándar (STDOUT). Este parámetro establece automáticamente el número de repeticiones en 1. útil al descargar archivos divididos de servidores de correo a través de la interfaz web.
  • -NC (--no-Clobber): si está descargando el sitio, la conexión se ha desactivado, luego especifique este parámetro para continuar cargando desde el sitio de interrupción.

Cuando inicie un wget sin parámetros, -n, -NC, o -R descargar el mismo archivo en una carpeta, se creará una copia del archivo nombrado archivo.uno. Si hay un archivo y con el mismo nombre, se llamará la tercera copia archivo.2, etc. El parámetro -NC mostrará advertencias al respecto.

Cuando inicia el WDGET con el parámetro -R, pero sin -n o -NC, la nueva descarga del Sitio reemplazará los archivos ya cargados. Al especificar el parámetro -NC, la descarga continuará desde el desglose y los archivos descargados no se cargarán nuevamente (a menos que cambien). Cuando inicie el WGGE con el parámetro -n, con o sin -R, el archivo será Cargado solo si es más nuevo que ya existente, o si el tamaño no coincide con la copia disponible (consulte la comparación por fecha). -NC no se combina con -n. Imprima los archivos de parámetros -NC especificados con extensiones.html o (esto es simplemente horrible) .htm de las unidades locales se cargará, como si está de Internet.

  • -C (--Continue) - Renovando la descarga de archivos. Utilizado si la descarga de archivos fue interrumpida. Por ejemplo:

Si la carpeta actual ya tiene un archivo nombrado ls-lr.z., WETGE comprenderá si este archivo coincide con el archivo descargable (¡no en tamaño!), Y de ser así, le enviará una solicitud al servidor para continuar descargando el archivo del mismo lugar donde la descarga se rompió la última vez. Recuerde que cuando la ruptura de Wget, repite los intentos de descargarse y sin parámetro -C, y solo cuando se rinda "y completará su trabajo, para reanudar la carga de archivos será necesaria este parámetro.

Sin especificar la opción -C, el ejemplo anterior cargará el archivo especificado Re-con el nombre final. ls-lr.z.1., sin contacto ya existente ls-lr.z..

A partir de la versión 1.7, al especificar el parámetro -c, si el archivo en el servidor tiene una igual o menor que la del archivo local, el tamaño, el WGTE no descargará nada y muestra el mensaje correspondiente.

Cuando se usa -C, cualquier archivo en un servidor que tenga un tamaño más grande que el archivo local se considerará tan desactivado. Se cargará y se grabará al final del archivo solo los bytes "faltantes" de la fosa más grande. Esto puede ser útil, Elsi necesita descargar nuevos mensajes de cualquier revista (registro).

Al mismo tiempo, si el archivo descargable es más porque cambióRecibirá un archivo dañado (es decir, el archivo puede finalmente llegar a ser completamente diferente del original). Es necesario ser especialmente atento al usar -C junto con -R, ya que cada archivo modificado puede ser un candidato para la "carga incompleta".

También obtendrá un archivo dañado si su servidor proxy HTTP funciona estúpido y cuando se rompe la conexión, escribe al mensaje "" Transferencia interrumpida "." Probablemente, en las siguientes versiones de WETG, lo corregirá.

Recuerde que -C funciona solo con servidores FTP y HTTP que admiten los encabezados "Rango" (i.e. Archivos al archivo).

  • --progress \u003d. tipo -Cargue el indicador de progreso y su tipo. Valores posibles: `` Dot "" y `` Bar ""

El valor predeterminado es `` Bar ". Especificar la opción --progress \u003d la barra conducirá al dibujo de un hermoso indicador de los caracteres ASCII (como "Termómetro"). Si la salida estándar no es TTY, se utilizará `` DOT "."

Especifique --progress \u003d Dot para cambiar al tipo `` Dot ". El progreso de carga se marcará agregando un punto o iniciar sesión en la tira igual a cada símbolo, representa la misma cantidad de datos.

Cuando use este tipo, puede especificar su estilo - Dot: estilo.. Si el estilo es "predeterminado", entonces cada carácter representará 1 KB, 10 caracteres en el clúster y 50 en la cadena. El estilo "binario" tiene una vista más "computadora": 8kb en un símbolo, 16 caracteres en un clúster y 48 caracteres en la cadena (resulta de una línea para 384 kb). El Mega Style se usa para descargar archivos grandes: cada símbolo representa 64kb, 8 caracteres en el clúster y se obtienen 48 caracteres en la cadena (se obtiene 3 MB por línea).

Puede definir el estilo predeterminado utilizando el comando "Progreso" en .wgetrc.. Si desea que el tipo de indicador `` BAR BAR "se use siempre (y no solo cuando se muestra en STDOUT), luego especifique --progress \u003d Barra: Force.

  • -N (--Timestamping) - Habilitar comparación por fecha.
  • -S (--Server-Respuesta): encabezados de pantalla enviados por servidores HTTP y solicitudes enviados a servidores FTP.
  • --Espider: la instalación del comportamiento de WGET como "Spider", es decir, WETGE no cargará los archivos, pero solo verificará su presencia. Para que pueda consultar los marcadores y enlaces del sitio. Por ejemplo:

wGET - SPIDE - Force-html -i favoritos.html

WGET no contiene todas las características de las "espacios reales" para WWW.

  • -T segundos (- tiempout \u003d segundos) -Tiempo de espera en segundos. De forma predeterminada, el tiempo de espera es de 900 s (15 min). Configuración del valor en 0 Cancela la verificación de tiempo de espera. Por favor, no reduzca el valor del tiempo de espera si definitivamente no sabe lo que está haciendo.
  • -w. segundos (--wait \u003d. segundos) -Pausa en segundos entre múltiples cargas (incluidas las repeticiones). Esto reduce la carga del servidor. Para especificar un valor en minutos, use "M", en el reloj: "H", en los días: "D" después del número. Especificar el valor general de este parámetro es útil si la red es inestable (por ejemplo, cuando se rompe la comunicación del módem).
  • --Waitretry \u003d. segundos -Establece la pausa solo entre las cargas de inversión. WGTE esperará 1 segundo después del primer descanso, 2 segundos después del segundo acantilado de la bota del mismo archivo, etc. - al máximo, que se indica en segundos. Por ejemplo, con el valor de este parámetro, igual a 10, el WGTE esperará en general (1 + 2 + ... + 10) \u003d 55 segundos para cada archivo. Este valor se especifica de forma predeterminada en el archivo. wGETRC..
  • --Random: espere: algunos servidores, lo que hace que los archivos de registro con las pausas de consulta de archivos, pueden determinar la descarga recursiva de archivos: robots de escaneo como WGTET. Este parámetro establece la hora entre las solicitudes variando las pausas con el tiempo calculado de 0 a 2 * esperar. (segundos), donde esperar. Se indica mediante el parámetro -W para enmascarar WGET. No debe olvidar que el código fuente del WGTE está disponible, y es incluso posible calcular este disfraz si se desea.
  • -Y ON / OFF (--proxy \u003d ON / OFF) - Soporte de servidor proxy. Habilitado de forma predeterminada si se define el proxy.
  • -Q .Q. cuota(--Quota \u003d. cuota) -Cuota para el tamaño de los archivos descargables. Se indica en bytes (predeterminados), en kilobytes KB (si está al final de K) o en MB Megabytes (si al final de M).

Cuando se carga la cuota, el archivo actual está cargado hasta el final, es decir, la cuota no funciona al cargar un archivo..gz, luego el archivo ls-lr.gz. será completamente cargado. También se cargarán todos los archivos especificados en la línea de comando, a diferencia de la lista de archivos en un archivo o tanto durante la descarga recursiva.

Especifique 0 o INF cancelará la cuota.

Opciones de arranque Failock

  • -ND (--no-directorios) - No cree estructura de carpetas con descarga recursiva. Con el parámetro especificado, todos los archivos se cargarán en una carpeta. Si el archivo con este nombre ya existe, se guardará con el archivo Nombre.
  • -X (-Borce-directorios): lo opuesto al -nd parámetro: cree la estructura de la carpeta, a partir de la página principal del servidor .txt para cargar el archivo a la carpeta fly.srk.fer.hr.hr..
  • -NH (--no-directorios de host): no cree carpetas vacías al principio de la estructura. Predeterminado / Pub / Xemacs /. Si lo descarga con el parámetro -R, se guardará con el nombre. fTP.. Con el parámetro -NH desde el nombre de la carpeta inicial se reducirá ftp.sype /y ella será llamada pub / xemacs.. Y el parámetro --cut-dirs eliminará número Componentes.

Si desea deshacerse de la estructura de la carpeta, puede reemplazar este parámetro en -nd y -p. A diferencia de -nd, -nd funciona con subdirectorios, por ejemplo, con -nh --cut-dirs \u003d 1 subdirectory beta / Mal, como xemacs / beta..

  • -PAG. prefijo (--Directory-prefijo \u003d prefijo) -Determina carpeta inicialdonde se guardará la estructura de la carpeta del sitio (o simplemente los archivos). Por defecto, este parámetro es igual. (Carpeta actual).

Parámetros HTTP

  • -E (--html-extension): si el tipo de archivo cargado de texto / html y su dirección no termina en \\.? Cuando se usa este parámetro, se agregará a su nombre.html. Puede ser útil cuando las páginas duplicadas .asp, si no desea que interfieran con el trabajo de su servidor Apache. Otro caso de aplicar este paramer es la descarga de páginas de respuesta de script de CGI..cgi? 25 se guardarán como article.cgi? 25.html.. (Al actualizar u otra pagina de reinicio con este parámetro, este último se nadará nuevamente en cualquier caso, porque WGET no puede averiguar si el archivo local tiene la proporción X.html Para cargados con url X.. Para evitar el reinicio innecesario, use las opciones de K & -K. En este caso, las versiones originales de los archivos también se guardarán como X.ORIG.)
  • --HTTP-USER \u003d usuario (--http-passwd \u003d cONTRASEÑA) -Nombre de usuario usuario. y contraseña contraseña. Para el servidor HTTP. Dependiendo del tipo de respuesta, el WGTE utilizará la autorización "básica" (insegua) o "digerir" (segura). También puede especificar el nombre de usuario y la contraseña y en la URL en sí.
  • -C ON / OFF (--Cache \u003d ON / OFF): enciende o desactiva el almacenamiento en caché del servidor. En este caso, WGET envía la solicitud correspondiente (Pragma: no-caché). También se utiliza para actualizar rápidamente los archivos en el servidor proxy. Por defecto, se permite el almacenamiento en caché.
  • --COOKIES \u003d ON / OFF: habilita o apaga el uso de cookie. El servidor envía una cookie al cliente utilizando el encabezado "Configuración de cookie" y el cliente cumple con la misma cookie. Gracias a esto, el servidor puede liderar las estadísticas de los visitantes. De forma predeterminada, se utilizan cookies, pero las grabarlas en el disco se apagan.
  • - Carga-cookies. archivo -Descargar cookie out archivo Antes de la primera carga HTTP. archivo tiene un formato de texto como cookies.txt Netscape. Este parámetro se usa para reflejar. Para hacer esto, WGTE envía las mismas cookies que envían su navegador al conectarse al servidor HTTP. Esto se enciende por este parámetro, solo especifique la ruta de WEGGET a cookies.txt. Diferentes navegadores almacenan galletas en diferentes carpetas:

El parámetro de cookies de carga funcionará con la cookie en formato Netscape, que es compatible con WETGE.

Si no puede usar el parámetro - carga de cookies, aún tiene una salida. Si su navegador admite, escriba el nombre del nombre y la cookie y especifique manualmente el envío de WGTE a estas cookies: wget --kookies \u003d off -ader "cookie: i \u003d I. "

  • --Acerva de galletas archivo -Guardar la cookie archivo Al final de la sesión. Las galletas obsoletas no se guardan.
  • - Longitud-longitud: algunos servidores HTTP (más precisamente, los scripts de CGI) se apoderan de los encabezados "Duración del contenido", que indican el WGET, que aún no está cargado. Y el wget carga un documento varias veces. Con este parámetro, WETGE ignorará los titulares de "longitud de contenido".
  • --HEADER \u003d. encabezado adicional -Determina encabezado adicional.enviado al servidor HTTP. Debe contener: y caracteres después de eso. Puede definir varios encabezados adicionales a través del uso de -HEADER varias veces.

wget --ader \u003d "acept-charset: ISO-8859-2" --ader \u003d "Aceptar-Idioma: HR" http: // Site / Especificando una cadena vacía en el valor del título, limpiará todo lo definido por el usuario a este encabezado.

  • --proxy-usuario \u003d usuario.y --proxy-passwd \u003d contraseña -Define el nombre de usuario usuario. y contraseña de contraseña para autorizar el servidor proxy. Se utilizará el tipo de autorización "BÁSICO".
  • --Referer \u003d. uRL -Agrega el título `Referido: url"En la solicitud HTTP. Se usa al descargar las páginas que se pasan correctamente solo si el servidor conoce de qué página venía.
  • -S (- encabezados): guarde los encabezados enviados por los servidores HTTP.
  • -U. agent-String (--User-agente \u003d agent-String) -Identificar, como cadena de agente Al solicitar un servidor HTTP. El protocolo HTTP le permite determinar el uso del encabezado del agente. El wget predeterminado se identifica como wget / versión.dónde versión. - Esta es la versión de WGET. Algunos servidores proporcionan la información requerida solo para los navegadores identificables como "Mozilla" o Microsoft "Internet Explorer". Este parámetro le permite engañar a tales servidores.

Parámetros FTP

  • -Nr (--dont-remove-listing) - no elimine los archivos temporales .listado.generado al descargar por ftp. Estos archivos contienen información sobre las carpetas de servidores FTP. El fracaso lo ayudará a determinar rápidamente la actualización de la carpeta del servidor (es decir, para determinar que su espejo es tal). Si no borras .listado.¡Recuerdo tu seguridad! Por ejemplo, con este nombre, puede crear un enlace simbólico para / etc / passwd o algo mas.
  • -g ON / OFF (--glob \u003d ON / OFF): incluye o deshabilita el uso de caracteres especiales ( máscaras) A través del protocolo FTP. ¿Es posible *,?, [Y]. Por ejemplo:

wget ftp: //syt.com.msg

De forma predeterminada, se permite el uso de caracteres de máscara si la URL contiene tales caracteres. También puedes tomar la URL en las cotizaciones. Solo funcionará en los servidores FTP de UNIX (y emule la salida "LS" de UNIX ").

  • - Passive-FTP: incluye el modo FTP pasivo cuando la conexión es iniciada por el cliente. Utilizado con firewall.
  • --Retr-Synlinks: con la carga recursiva de los archivos de carpetas FTP que indican que los enlaces simbólicos no están cargados. Este parámetro lo deshabilita. El parámetro --Retr-SymLinks es ahora solo para archivos, no para carpetas. Recuerde que este parámetro no funciona al cargar un solo archivo.

Parámetros de carga recursiva

  • -R (--recursive) - Habilitar la carga recursiva.
  • -L. profundidad (--Level \u003d. profundidad) -Profundidad máxima de carga recursiva profundidad. Por defecto, su valor es 5.
  • --Delete-después - Eliminar cada página (localmente) después Sus descargas. Se utiliza para guardar nuevas versiones de páginas solicitadas con frecuencia en un proxy. Por ejemplo:

wget -r -nd --delete-después de http: // sitio / ~ Popular / Página /

El parámetro -R incluye la carga predeterminada, el parámetro -nd desactiva la creación de carpetas. Con el parámetro especificado --delete-después, será ignorado por el parámetro --Convert-Links.

  • -K (--Convert-Links): después de que se complete la descarga, convertir enlaces al documento para ver fuera de línea. Esto se refiere no solo a referencias visibles a otros documentos, y enlaces a todos los archivos locales externos. Cada enlace varía con una de dos maneras:

Por ejemplo: si el archivo descargado /ofoo/doc.html, entonces el enlace al archivo descargado / barra/img.gif será como ... Bar / img.gif. Este método funciona si hay una relación visible entre las carpetas de uno y otro archivo.
Los enlaces a los archivos que no están cargados por WGET se cambiarán a las direcciones absolutas de estos archivos en un servidor remoto.

Por ejemplo: si el archivo descargado /foo/doc.html contiene un enlace a /bar/img.gif (o en ./ Bar / img.gif), el enlace en el archivo DOC.HTML cambiará a http: / / host / bar / img.gif.

Debido a esto, es posible la visualización autónoma del sitio y los archivos: si el archivo se descarga en el que hay un enlace, el enlace lo indicará, si no, el enlace indicará su dirección en Internet (si eso existe ). Cuando se usan enlaces relativos conversión, puede transferir el sitio descargado a otra carpeta sin cambiar su estructura. Solo después de que se complete la descarga, el WGET sabe qué archivos se descargan. En consecuencia, cuando el parámetro -K, la conversión solo ocurrirá al finalizar la descarga.

  • -K (-Backup-convertido) - Convertir enlaces Atrás - Eliminar extensión. Orig. Cambia el comportamiento de la opción -n.
  • -M (- Mirror): habilite parámetros para sitios de almacenamiento de espejo. Este parámetro es igual a varios parámetros: -R -N -L INF -NR. Para el almacenamiento sin pretensiones de copias de espejo de los sitios, puede usar este parámetro.
  • -p (- Requisitos de página): descargue todos los archivos que se necesitan para mostrar las páginas HTML. Por ejemplo: dibujos, sonido, estilos de cascada.

De forma predeterminada, tales archivos no están cargados. Los parámetros -R y -L especificados juntos pueden ayudar, pero porque WGET no distingue a los documentos externos e internos, entonces no hay garantía de que se cargarán todos los requisitos.

Parámetros recursivos de descarga / permisos recursivos

  • -A. acclist. (--aceptar acclist) -Lista de nombres de archivos separados por comas que deben descargarse. Se permite establecer los nombres de archivos en la máscara.
  • -R. rejlist. (--rechazar. rejlist) -Lista de nombres de archivos separados por comas que no deben descargarse. Se permite establecer los nombres de archivos en la máscara.
  • -D. lista de dominio (--Mains \u003d. lista de dominio) -Lista de dominios lista de dominio.que se les permite cargar archivos. Comas compartidas. Este parámetro no Incluye -h.
  • --Exclude-dominios. lista de dominio -Lista de dominios de los cuales no Permitido subir archivos
  • - Sigues-FTP: siga los enlaces FTP de las páginas HTML. De lo contrario, se ignoran los enlaces a los archivos FTP.
  • - marcas de lujo \u003d lista -WGTE tiene una tabla de etiqueta HTML incorporada en la que está buscando enlaces a otros archivos. Puede especificar etiquetas adicionales en la lista dividida lista En este parámetro.
  • -GRAMO. lista (- tegnore-tags \u003d lista) -Atrás - etiquetas de lujo. Para saltar las etiquetas HTML con descarga recursiva, especifíquelas en una lista dividida lista.
  • -H (- hosts de inicio): le permite visitar cualquier servidor para tener un enlace.
  • -L (--Relativo) - Sigue solo enlaces relativos. En este parámetro, los archivos de otros servidores definitivamente no se cargarán.
  • -I. lista (--InClude-Directories \u003d lista) -La lista de carpetas dividida por comas de la que se le permite cargar archivos. Elementos de lista lista
  • -X. lista (--Exclude-Directories \u003d lista) -Lista de carpetas divididas por comas excluidas para descargar (consulte la restricción de la carpeta). Elementos de lista lista Puede contener símbolos de máscaras.
  • -NP (--no-padre): no aumente por encima de la dirección inicial durante la carga recursiva.

Ejemplos de uso

  • Cargar URL:

wget http: // sitio /

  • Sube un archivo al aumentar el número de intentos a 60 intentos de instalar una nueva conexión (predeterminado 20):

wget --dres \u003d 60 http: //syt/jpg/flyweb.jpg

  • Ejecutar wget en el fondo y guardar mensajes de registro tronco.. (El símbolo de Ampersand al final indica el intérprete del comando para continuar el trabajo sin esperar la finalización del trabajo de WGET. Para hacer las repeticiones de las repeticiones infinitamente, use -t.)

wget -t 45 -o log http: //site/jpg/flyweb.jpg &

  • Descargar archivo FTP:
  • Si especifica la dirección de la carpeta, entonces el WGTE cargará la lista de esta carpeta (es decir, los archivos y subdirectorios contenidos en él) y los contexto con el formato HTML. Por ejemplo:

wGET FTP: // sitio web / pub / gnu / enlaces index.html

  • Si tiene un archivo con la URL que desea descargar, luego use el parámetro -I (si especifica, en lugar del nombre del archivo, se lea la URL de la entrada estándar (STDIN)):

wget -i I.

  • Cree una copia de cinco niveles del sitio web de GNU con la estructura de las carpetas originales, con un intento de descargar, guarde los mensajes en gnulog.:

wget -r http://www.gnu.org/ -O gnulog

  • Como en el ejemplo anterior, pero con la conversión de los enlaces en los archivos HTML al local, para la visualización posterior independiente:

wget --convert-enlaces -r http://www.gnu.org/ -o gnulog

  • Sube una página HTML y todos los archivos necesarios para mostrar los últimos (por ejemplo, dibujos, estilos de cascada, etc.). También convertir todos los enlaces a estos archivos:

wget -p --convert-enlaces http://www.server.com/dir/page.html

  • La página HTML se guardará en www.server.com/dir/page.html y dibujos, estilos en cascada, etc. se guardarán en la carpeta. www.server.com/Además del caso cuando los archivos se descargan desde otros servidores. Como en el ejemplo anterior, pero sin una carpeta. www.server.com/. También todo Los archivos se guardarán en subcarpetas. descargar /.

wget -p --convert-enlaces -nh -nd -pdownload http://www.server.com/dir/page.html

  • Cargar index.html con www.lycos.com, que muestra los encabezados del servidor:

wget -s http://www.lycos.com/

  • Guarde los encabezados en un archivo para su uso.

wget -s http://www.lycos.com/more index.html

  • Descarga dos niveles más altos wuarchive.wustom.edu en / Tmp..

wget -r -l2 -p / tmp ftp://wuarchive.wustom.edu/

  • Descargue archivos de carpeta GIF en el servidor HTTP. El comando wget http://www.server.com/dir/* .gif no funcionará, ya que los caracteres de camuflaje no se admiten al cargar el protocolo HTTP. Usar:

wget -r -l1 --no-parent -a.gif http://www.server.com/dir/

R -L1 incluye una carga recursiva con una profundidad máxima 1. --no-padre se apaga siguiendo los enlaces a la carpeta principal, teniendo un nivel superior, -A.gif le permite descargar solo archivos con extensión.gif. -A `` * .gif "" también funcionará.

  • Supongamos que durante la descarga recursiva necesitaba desactivar / reiniciar la computadora. Para no descargar archivos existentes, use:

wGET -NC -R http://www.gnu.org/

  • Si desea especificar el nombre de usuario y la contraseña para un servidor HTTP o FTP, use la sintaxis de URL apropiada:

[Correo electrónico protegido]/.emacs"\u003eftp://hniksic: [Correo electrónico protegido]/.Emacs.

  • ¿Desea que los documentos descargables vayan a la salida estándar, y no en los archivos?
  • Si desea organizar un transportador y cargue todos los sitios, enlaces a los que se indican en una página

wget -O - http://cool.list.com/ | Wget --force-html -i -

  • Para almacenar el espejo de la página (o carpetas FTP), luego use - Mirror (-M), que reemplaza a -R -l INF -N. Puede agregar WETGE a CRONTAB con una solicitud de revisión de actualización todos los domingos:

crontab 0 0 * * 0 WGET - MIRROR http://www.gnu.org/ -o / home / me / weeklog

  • También desea que los enlaces se conviertan a los locales. Pero después de leer este manual, sabe que la comparación de tiempo no funcionará. Especifique el WGTE para dejar copias de copia de seguridad de los archivos HTML antes de la conversión. Equipo:

wget --mirror --convert-blinks -backup-convertido http://www.gnu.org/ -o / home / me / waylog

  • Y si la visualización local de los archivos HTML no funciona con una extensión, diferente de.html, por ejemplo, index.cgi.Luego, debe transferir el comando para cambiar el nombre de todos estos archivos (contenido tipo \u003d texto / html) en nombre.html.

wget - Mirror --Convert-Links --Backup-Converted --HTML-Extension -O / Home / Me / SemanLog http://www.gnu.org/

  • Con breves análogos de los equipos:

wget -m --k -k -e http://www.gnu.org/ -o / home / me / waylog



¿Te gustó el artículo? Compártelo