Contacts

Commandes Wget: Exemples. Programme de console pour télécharger des fichiers sur le réseau WGET. Exemples d'utilisation de wget, ou comment télécharger à partir de la ligne de commande Comment utiliser le programme WGET

Il est souvent nécessaire s'il n'y a pas d'interface graphique (par exemple, lors de la configuration d'un serveur distant), téléchargez un fichier sur un disque. De plus, il y a des situations quand il n'y a pas de temps (ou juste une reine) pour lire un manuel de kilomètre uniquement pour télécharger les archives. Par conséquent, cet article donnera quelques exemples simples d'utiliser le célèbre cantilever "Rocking" - Wget.

Au fait, après avoir découvert cet utilitaire, je l'utilise souvent comme alternative aux gestionnaires de téléchargement graphique, car Wget s'est avéré plus rapide, plus pratique et a un certain nombre de fonctionnalités utiles qui ne sont plus nulles.

Pratiquement dans toutes les distributions Wget sont définies par défaut, mais si ce n'est pas le cas:

Que ferait simplement télécharger le fichier, sous forme d'argument, spécifier le lien HTTP ou FTP:

$ wget ftp://somedomain.com/somefile.tar

où "http://somedomain.com/somefile.tar" est un lien direct vers le fichier que vous souhaitez télécharger.

Dans Wget, comme dans n'importe quel "chair à bascule internet", il y a une occasion de faire. Cela utilise le paramètre -c.ou alors -Continuer. :

lorsque l'injection se casse, pour continuer, dans le dossier avec le fichier de déficit, nous écrivons:

$ wget http://somedomain.com/somefile.tar

ou encore avec le Desig:

$ Wget --Continue http://somedomain.com/somefile.tar

Il est nécessaire de déployer plusieurs dizaines de fichiers (ou centaines). Une solution consiste à spécifier le document Wget-Y comme argument un document texte ou une page HTML contenant des liens directs vers des fichiers que vous souhaitez télécharger. Pour cela utilise l'option -JE.ou alors -Input-file :

$ Wget --input-file \u003d / chemin / à la liste

Pour définir le modèle de fichier que vous devez télécharger ou ignorer, il est pratique d'utiliser des options. -A -accepter et -R -re, indiquant comme des arguments à eux une liste des points-virgules partagés. Par exemple, dans le téléchargement d'une liste de fichiers, ignorez les fichiers avec Exe et AVI Extensions, nous utilisons la commande:

$ wget -Reject * .exe, * .avi -Input-file \u003d / patch / to / liste

Il convient de noter que dans tous les exemples précédents, le téléchargement sera effectué dans le répertoire actuel. Pour spécifier un répertoire arbitraire, utilisez l'option -P. ou alors -Directory-Prefix. :

$ Wget - directory-préfixe \u003d / téléchargement / répertoire http://somedomain.com/somefile.tar

Étant donné que le WGET utilise la chaîne Internet "sur le programme complet", il est parfois utile de limiter la vitesse de téléchargement, afin de ne pas interférer avec le fonctionnement d'autres applications Internet. Cela aidera l'option -Le taux, comme un argument pour lequel nous indiquons la vitesse en kilo-octets:

$ Wget -Limit-tarif \u003d 120k http://somedomain.com/somefile.tar

Les options ci-dessus peuvent être combinées en fonction des besoins.

Considérez une autre option intéressante pour utiliser Wget - Sites de téléchargement. Vous pouvez simplement créer une copie miroir du site à l'aide de l'option. -m. ou alors -Miroir :

$ wget -m http://www.somedomain.com/

dans ce cas, l'architecture des liens absolus est préservée.

Également possible création d'une copie du site pour la visualisation locale, dans laquelle chaque lien indique le fichier local approprié. Pour ce faire, utilisez l'ensemble d'options suivantes:

$ Wget -k -r -l0 -np --page-requis http://www.somedomain.com/

brièvement sur chaque option:

-K -convert-liens - convertit les liens absolus vers local

-R -Récours. - Chargement récursif, c'est-à-dire Tous les liens et pages investis seront injectés

-L -lvel - Liens des références 0 - Infiniement (par défaut - 5)

-np -no-parent - Ne dépassez pas au-dessus du niveau de la liaison initiale

-p -page-conditions requises. - Téléchargez tout ce dont vous avez besoin pour afficher correctement les pages (images, CSS, JavaScript, etc.)

Ce n'est pas une liste complète des options d'utilisation possibles pour cet utilitaire. Je n'ai décrit que les exemples les plus élémentaires afin de montrer brièvement les possibilités et la polyvalence d'un outil aussi puissant que Wget.

Vous pouvez vous familiariser avec le manuel complet WGET ou.

Wget. - Programme de texte pour télécharger des fichiers.

Si les fonctionnalités WGET ne suffisent pas, vous pouvez utiliser CURL.

Exemples

Simplement télécharger un fichier Wget:

Wget ftp://vasya.pupkin.com/film.avi.

Pour continuer l'injection brisée Nous écrivons:

Wget -c ftp://vasya.pupkin.com/film.avi.

Wget --Continue ftp://vasya.pupkin.com/film.avi.

Comme dans d'autres programmes, les clés ont une forme courte et longue et, au lieu de cela, il est possible d'écrire -Continuer. Les touches longues sont plus faciles à retenir, mais d'écrire plus longtemps. Vous pouvez facilement mélanger diverses formes d'écriture.

À déployer des fichiers de la listecontenant des liens directs:

Wget -i puppinlist.txt

Wget --input-file \u003d puppinlist.txt

Ici, seul le fichier contient des liens. Le fichier peut également être un connard HTML, dans lequel il existe des liens. Ils seront vendus la commande ci-dessus.

Utilisez un "Teleport Pro pour Linux".

Lorsque vous téléchargez plus d'opportunités de sites Web et que plus de clés sont donc nécessaires. Encore une fois, il n'est pas nécessaire de se souvenir d'eux, vous pouvez faire un script (et mieux un peu - pour des cas différents) et les causer.

Donc, s'il y a un site Web, et j'aimerais avoir sa copie locale sur l'ordinateur, de sorte que, éteignant du réseau, il était possible que ce n'était pas pressé de le lire.

Sites de mise en miroir sur la voiture locale:

Wget -m http://www.vasyapupkin.com/

M est équivalent à -r -n -lff -NR, ces options sont décrites ci-dessous.

Copier le site pour la visualisation locale (avec le remplacement des liens Internet vers des adresses locales Pages téléchargées):

Wget -r -l0 -k http://www.vasyapupkin.com/

Cela inclura un déchargement récursif (Key -R, -Recursive),

Option

WGET dispose d'un grand nombre d'options utiles - plus que le téléporteur "et des drapeaux. Être emballé dans un script, par exemple, téléport et posé pour une place importante (spécifiée dans le chemin), ont une facilité d'utilisation et une richesse de réglages.

NP, -NO-parent - Ne dépassez pas l'adresse initiale lors du téléchargement récursif.

R, -Recursive - Activez les annuaires de visualisation récursif et les sous-répertoires sur un serveur distant.

L. , -Level \u003d. - Déterminez la profondeur maximale de la récursivité égale à la profondeur lors de la visualisation de répertoires sur un serveur distant. Profondeur par défaut \u003d 5.

NP, -NO-parent - N'allez pas au répertoire parent lors de la recherche de fichiers. Il s'agit d'une propriété très utile car elle garantit que seuls les fichiers inférieurs à une certaine hiérarchie seront copiés.

UNE. ,J'accepte , -R. , -Reject. - Liste des noms de fichiers séparés par des virgules, qui devrait (accepter) ou ne pas (rejetter) télécharger. Il est autorisé à définir les noms de fichiers sur le masque.

K, -convert-links - Tournez des liens absolus vers le document HTML en liens relatifs. Seules les références qui indiquent que les pages réellement téléchargées seront converties; Le reste ne sera pas transformé. Notez que seulement à la fin du travail de Wget pourra savoir quelles pages ont été réellement chargées. Par conséquent, seulement à la fin du travail WGET sera effectué une transformation finale.

-Http-user \u003d , -Http-passwd \u003d Spécifiez le nom d'utilisateur et le mot de passe sur l'écran HTTP.

H, -Span-hosts - vous permet de visiter tous les serveurs auquel il existe un lien.

P, -Page-requisites - Téléchargez tous les fichiers nécessaires à l'affichage de pages HTML. Par exemple: dessins, sons, styles de cascade (CSS). Par défaut, ces fichiers ne sont pas chargés. Les paramètres -R et -L spécifiés ensemble peuvent aider, mais parce que Wget ne distingue pas les documents externes et internes, alors il n'y a aucune garantie que tous les besoins seront chargés.

Vous avez un JavaScript bloqué dans votre navigateur. Autoriser JavaScript pour le travail du site!

Wget - programme pour télécharger des fichiers et
télécharger entièrement le site.

Le monde Linux, l'utilitaire Wget distribué librement vous permet de télécharger des fichiers distincts à partir d'Internet et de l'ensemble des sites, en suivant les liens sur les pages Web.

Pour obtenir un indice par les paramètres WGET, tapez la commande Man wget sous Linux ou Wget.exe --Help sous Windows.

Supposons que nous souhaitions créer une copie complète du site www.site.com sur votre disque. Pour ce faire, ouvrez la ligne de commande (wget - console utilitaire) et écrivez la commande suivante:

Wget.exe -r -l10 -k -p -e -nc http://www.site.com wget récursivement (paramètre -r) coûtera des annuaires et des sous-répertoires sur un serveur distant comprenant des styles CSS (-K) avec une récursion maximale Profondeur égale à dix (-L), puis remplacez les liens absolus vers Relative (K) et des extensions vers HTML (-E) dans les documents HTML chargés pour la visualisation locale ultérieure du site téléchargé. Lors du téléchargement de nouveau, il n'y aura pas de visages et écrasez-vous les répétitions (-NC). Malheureusement, les styles internes et les images indiqués dans les styles ne sont pas téléchargés

Si cela est supposé télécharger à partir du site d'un répertoire unique (avec tous les dossiers investis dans elle), il sera plus logique d'inclure le paramètre -NP dans l'invite de commande. Il ne permettra pas d'utiliser l'utilité lors de la recherche de fichiers de gravir la hiérarchie de répertoire au-dessus du répertoire spécifié:

Wget.exe -r -l10 -k http://www.site.com -np

Wget.exe -r -l10 -k http://www.site.com -c

Par défaut, tout téléchargent est enregistré dans le répertoire de travail de l'utilitaire. Définir un autre emplacement des fichiers copiés aidera le paramètre -P:

Wget.exe -r -l10 -k http://www.site.com -p c: \\ Internet \\ fichiers

Enfin, si les paramètres réseau de votre réseau supposent l'utilisation d'un serveur proxy, ses paramètres doivent être signalés au programme. Cm.

Wget -m -k -nv -np -p -user-agent \u003d "Mozilla / 5.0 (compatible; Konqueror / 3.0.0 / 10; Linux)" Address_site

Wget -i fichier.

Télécharger un fichier sur le répertoire spécifié (-P):

Wget -p / chemin / pour / sauvegarder ftp://ftp.example.org/some_file.iso

Utilisation du nom d'utilisateur et de mot de passe sur ftp / http (option 1):

Wget ftp: // login: [Email protégé]/some_file.iso.

Utilisation du nom d'utilisateur et du mot de passe sur le FTP / http (option 2):

Wget --user \u003d login -password \u003d mot de passe ftp://ftp.example.org/some_file.iso

Téléchargement en arrière-plan (-B):

Wget -b ftp://ftp.example.org/some_file.iso

CONTINUER (-C CONTINUER) Télécharger précédemment non entièrement téléchargé Fichier:

Wget -c http://example.org/file.iso.

Téléchargez la page à partir de la profondeur des 10 suivantes, enregistrant le protocole dans le fichier journal:

Wget -r -l 10 http://example.org/ -o journal

Téléchargez le contenu du catalogue http://example.org/~luzer/my-archive/ et tous ses sous-répertoires, tout en ne montant pas sur la hiérarchie de répertoire ci-dessus:

Wget -r -r -no-parent http://example.org/~luzer/my-archive/

Pour que les liens de tous les téléchargements sur les liens sont liés à la visualisation locale, vous devez utiliser la clé de la clé:

Wget -r -l 10 -k http://example.org/

Également pris en charge sur le serveur:

Wget -save-biscuits cookies.txt --Post-Data "User \u003d foo & Mot de passe \u003d bar" http://example.org/auth.php

Copiez tout le site de l'ensemble:

Wget -r -l0 -k http://example.org/

Par exemple, ne téléchargez pas Zip-Archives:

Wget -r -r "* .zip" http://freeware.ru

Connectez-vous et téléchargez le fichier de clé

@echo Off wget --Save-biscuits cookies.txt --Post-Data "Login \u003d Twopol" http://beta.drweb.com/files/ -o- wget - chargoad-cookies cookies.txt "http: //beta.drweb.com/files/? p \u003d win %% 2fdrweb32-betatesting.key & t \u003d f" -o drweb32-betaTesting.key

Attention! Wget Paramètre registre est différent!

Touches de lancement de base

-V.
--Version.
Affiche la version wget.

-h
--aider.
Affiche une aide pour la description de toutes les clés de ligne de commande Wget.

-b.
--Contexte
Allez au mode de fond immédiatement après le lancement. Si le fichier de sortie n'est pas spécifié, la sortie est redirigée vers le journal Wget-Log.

- Commande.
- CommandeExecute Command
Exécuter la commande comme s'il faisait partie du fichier. La commande fonctionnant de cette manière sera terminée après les commandes V.WgeTrc, recevant la priorité sur eux. Pour tâche plus d'une commande wgetrc, utilisez plusieurs clés.

Loging et saisie des clés de fichier

-O logfile.
--Output-File \u003d logfile
Connectez tous les messages dans logfile. Habituellement, les messages sont affichés dans l'erreur standard.

-un logfile.
--Append-sortie \u003d logfile
Ajouter au journal. La même chose que -o, seul logfile n'est pas écrasé, mais ajoute. Si logfile n'existe pas, un nouveau fichier sera créé.

-ré.
--déboguer.
Comprend la production d'informations de débogage, c'est-à-dire Diverses informations utiles pour les développeurs wget avec un travail incorrect. L'administrateur système pourrait choisir l'assemblage WGET sans débogage, dans ce cas, cela ne fonctionnera pas. N'oubliez pas que le support de débogage est toujours en sécurité - WGET ne présentera pas d'informations de débogage tant qu'elle n'est pas clairement demandée par -D.

-Q.
--Calmer.
Éteint la sortie wget.

-V.
--Verbeux
Comprend une conclusion détaillée avec toutes les informations possibles. La valeur par défaut est par défaut.

-Nv.
--Non-verbose
Sortie intégrée - Désactive les détails, mais il ne se ferme pas du tout (Use -q pour cela), des messages d'erreur et des informations de base sont affichés.

-Je fichier
--Input-file \u003d fichier
Lisez l'URL dans le fichier d'entrée de fichier, dans ce cas, l'URL n'est pas nécessaire pour spécifier dans l'invite de commande. Si les adresses URL sont répertoriées sur l'invite de commande et dans le fichier d'entrée, les adresses de la ligne de commande seront d'abord. Le fichier ne doit pas (mais peut) être un document HTML - une liste suffisante des adresses d'URL. Toutefois, lorsque vous spécifiez --force-HTML, le fichier d'entrée sera considéré comme HTML. Dans ce cas, des problèmes peuvent survenir avec des références relatives pouvant être résolues par l'indication. À l'intérieur du fichier d'entrée ou --Base \u003d URL sur la ligne de commande.

-F.
--Force-html
Lorsque vous lisez une liste d'adresses du fichier définit le format de fichier en tant que HTML. Cela vous permet d'organiser télécharger des liens relatifs dans le fichier HTML local lorsque vous spécifiez. À l'intérieur du fichier d'entrée ou --Base \u003d URL sur la ligne de commande.

-B URL
--Base \u003d URL
Utilisé partagé C -F pour ajouter l'URL au début des liens relatifs dans le fichier d'entrée spécifié via -i.

Touches Télécharger

-Bind-Adresse \u003d Adresse
Lorsque vous ouvrez les connexions TCP / IP client, lié () sur l'adresse de la machine locale. L'adresse peut être spécifiée comme nom d'hôte ou adresse IP. Cette clé peut être utile si la machine est allouée à plusieurs adresses IP.

-t numéro
--Tries \u003d nombre
Définit le nombre de tentatives de numéro. La tâche 0 ou INF correspond à un nombre infini de tentatives. Par défaut, 20, à l'exception des erreurs critiques du type "en connexion" ou "fichier non trouvé" (404), dans laquelle les tentatives ne sont pas renouvelées.

-O fichier.
--Output-Document \u003d fichier
Les documents ne sont pas enregistrés dans les fichiers correspondants, mais sont concatés par le fichier nommé fichier. Si le fichier existe déjà, il sera écrasé. Si le fichier est défini comme fichier, les documents seront affichés dans la sortie standard (annulation -k). N'oubliez pas que la combinaison C -K n'est normalement définie que pour le téléchargement d'un document.

-NC.
- Nomo-clobber
Si le fichier est téléchargé plus d'une fois dans le même répertoire, le comportement du wget est déterminé par plusieurs clés, y compris -NC. Dans certains cas, le fichier local sera tiré ou écrasé lors de la ré-téléchargée, dans d'autres - enregistré.
Lorsque vous démarrez un wget sans -n, -nc ou -r téléchargez le même fichier dans le même répertoire, cela permet de sauvegarder la copie source du fichier et la nouvelle copie est écrite dans le fichier de nom de fichier.1. Si le fichier est à nouveau téléchargé, la troisième copie s'appellera Fichier.2, etc. Si la touche -NC est spécifiée, ce comportement est supprimé, Wget refuse de télécharger de nouvelles copies du fichier. Ainsi, le "no-clobber" est une consommation incorrecte du terme dans ce mode - n'empêche pas les fichiers empêchant (les suffixes numériques ont déjà empêché la compréhension) et créant plusieurs copies.
Lorsque vous démarrez le wget avec la touche -r, mais sans -n ou -nc, le redémarrage de fichiers conduit à écraser à la place de l'ancien. Ajouter -nc empêche un tel comportement en enregistrant des fichiers source de fichiers et en ignorant les nouvelles versions sur le serveur.
Lorsque vous démarrez le wget avec -n, avec ou sans clé, la décision de téléchargement sur la nouvelle version du fichier dépend des timbres et une taille de temps locaux et distants du fichier. -NC ne peut pas être spécifié avec -n.
Lorsque vous spécifiez -NC fichiers avec Extensions.html et.htm seront chargés à partir du disque local et traité comme s'ils ont été téléchargés à partir du réseau.

-c.
--Continuer.
Continuer l'injection de fichier partiellement téléchargé. Ceci est utile si vous devez remplir le téléchargement, démarré par un autre processus WGET ou un autre programme. Par example:

Wget -c ftp: //site/ls-lr.z

S'il existe un fichier LS-LR.Z dans le répertoire actuel, le WGET considérera la première partie du fichier distant et demande au serveur de continuer le téléchargement à partir du démarrage, égal à la longueur du fichier local.

Pas besoin de spécifier cette clé afin que le processus de Wget actuel continue de télécharger lorsque la perte de communication est à mi-chemin. C'est un comportement initial. -C n'affecte que les blessures ont commencé au processus de Wget actuel si des fichiers locaux existent déjà.

Sans -c, l'exemple précédent enregistrera un fichier distant dans LS-LR.Z.1, laissant LS-lr.z inchangé.

À partir de la version 1.7 Wget 1.7, lorsque vous utilisez -c avec un fichier non vide, WGET refuse de démarrer le téléchargement en premier si le serveur ne prend pas en charge le téléchargement, car Cela conduirait à la perte de données téléchargées. Supprimez le fichier si vous souhaitez commencer à télécharger à nouveau.

À partir de la version Wget 1.7, lors de l'utilisation de -c, pour un fichier égal au fichier de longueur, le WGET refusera de télécharger et d'afficher le message explicatif. Il en va de même si le fichier distant est inférieur à celui local (peut-être a-t-il été changé sur le serveur depuis la tentative précédente) - car "Suite" Dans ce cas n'a aucun sens, le téléchargement n'est pas produit.

D'autre part, lors de l'utilisation -c, le fichier local sera considéré comme non attaché si la longueur du fichier distant est supérieure à la longueur locale. Dans ce cas (longueur (distance) - longueur (local)) octet sera téléchargée et collé à la fin du fichier local. Ceci est un comportement attendu dans certains cas: par exemple, vous pouvez utiliser -c pour télécharger la nouvelle partie du fichier de données ou de journal collecté.

Toutefois, si le fichier sur le serveur a été modifié et non seulement terminé, vous obtiendrez un fichier corrompu. Wget n'a pas de mécanismes de contrôle si le fichier local est la partie initiale du fichier distant. Devrait être particulièrement attentif lors de l'utilisation de -c avec -r, car Chaque fichier sera considéré inexploité.

Le fichier gâté peut également être obtenu lors de l'utilisation -c -c avec une courbe proxy HTTP, qui ajoute la ligne TIM "obtenue". Dans les versions futures, il est possible d'ajouter une clé de kickback pour corriger de tels cas.

La touche -c ne peut être utilisée qu'avec des serveurs FTP et HTTP prenant en charge l'en-tête de la plage.

--Programme \u003d type
Sélectionnez le type d'indicateur de trait d'injection. Valeurs possibles: "point" et "bar".
L'indicateur de type «bar» est utilisé par défaut. Il affiche la barre de chargement ASCII (appelé "thermomètre"). Si la sortie n'est pas dans tty, la valeur par défaut est l'indicateur de type "point".
Pour passer en mode "point", spécifiez --Programme \u003d point. Le cours de téléchargement est suivi et affiché à l'écran sous forme de points, où chaque point représente une taille fixe des données téléchargées.
Avec un téléchargement de point, vous pouvez modifier le style de sortie en spécifiant DOT: style. Divers styles définissent une valeur différente pour un point. Par défaut, un point représente 1k, 10 points forment un cluster, 50 points par ligne. Le style binaire est un "ordinateur" plus "ordinateur" - 8K par point, 16 points sur le cluster et 48 points par ligne (384K en ligne). Le style méga est le mieux adapté au téléchargement de fichiers très volumineux - chaque point correspond à 64k, 8 points sur le cluster et 48 points de la chaîne (la chaîne correspond à 3M).
Le style par défaut peut être défini sur.wgetrc. Cette installation peut être remplacée sur la ligne de commande. L'exception est la priorité "DOT" sur "bar", si la sortie n'est pas dans tty. Pour une barre d'utilisation indispensable, spécifiez --Programme \u003d bar: force.

-N.
--Mestamping.
Comprend l'utilisation de marques temporaires.

-S.
--Server-réponse
La sortie des en-têtes de serveur HTTP et des réponses de serveurs FTP.

--araignée.
Lorsque vous commencez avec cette touche, WGET se comporte comme une araignée réseau, il ne télécharge pas de pages, mais ne vérifie que sa présence. Par exemple, en utilisant Wget, vous pouvez vérifier les signets:

Wget --Spider --force-html -i bookmarks.html

Cette fonctionnalité nécessite un large raffinement afin que WGET atteigne la fonctionnalité des araignées de réseau réelles.

-T secondes.
--Timeout \u003d secondes.
Définit le temps d'attente du réseau en secondes secondes. Équivalent de spécifier simultanément --DNS-Timeout, -Connect-Timeout et -Read-Timeout.
Lorsque le WGET se connecte ou se lit à partir d'un hôte distant, il vérifie le temps d'attente et interrompt l'opération lors de son expiration. Cela empêche l'émergence d'anomalies, telles que la lecture observée ou les tentatives sans fin de se connecter. Le seul temps d'attente défini par défaut est une durée de lecture de 900 secondes. Réglage du temps d'attente dans 0 vérifications annulaires.
Si vous ne savez pas exactement ce que vous faites, il vaut mieux ne pas installer de valeurs pour les clés temporelles du délai d'attente.

--Dns-timeout \u003d secondes
Définit le temps d'attente pour les demandes DNS en secondes secondes. Les demandes DNS inachevées seront infructueuses. Par défaut, aucun délai d'attente pour les demandes DNS n'est pas installé, en plus des valeurs définies par les bibliothèques système.

--Connect-timeout \u003d secondes
Définit l'heure de la connexion en secondes secondes. Les connexions TCP nécessitant plus de temps à installer seront annulées. Par défaut, aucun temps de connexion n'est installé, à l'exception des valeurs définies par les bibliothèques système.

-Read-timeout \u003d secondes
Définit le temps de lecture (et écrivez) en secondes secondes. La lecture qui nécessite plus de temps sera infructueuse. La valeur par défaut est de 900 secondes.

-Limit-tarif \u003d montant
Définit la limite de vitesse de téléchargement dans le montant d'octet par seconde. La valeur peut être exprimée en octets, des kilo-octets avec un suffixe K ou des mégaoctets avec un suffixe M. Par exemple, -Limit-Treard \u003d 20k établira une limite de vitesse de téléchargement dans 20 kb / s. Une telle restriction est utile si, pour une raison quelconque, vous ne voulez pas que Wget ne pas disposer de toute la bande passante accessible. WGET implémente une limite de sommeil à l'heure requise après la lecture du réseau, qui occupait moins de temps que la limite spécifiée. En conséquence, une telle stratégie conduit à ralentissement de la vitesse TCP d'approximativement la restriction spécifiée. Cependant, il faut un certain temps pour établir un équilibre, donc ne pas être surpris si la limite fonctionnera mal pour les petits fichiers.

-w secondes.
- Await \u003d secondes.
Attendez le nombre spécifié de secondes secondes entre téléchargements. L'utilisation de cette fonctionnalité est recommandée pour réduire la charge sur le serveur en réduisant la fréquence des demandes. Au lieu de secondes, le temps peut être indiqué en quelques minutes avec un suffixe M, en heures avec un suffixe h ou des jours avec un suffixe d.
Spécification du plus important si le réseau ou l'hôte de destination n'est pas disponible, de sorte que Wget attend suffisamment de temps pour corriger le dépannage du réseau jusqu'à la prochaine tentative.

--WaiTretry \u003d secondes.
Si vous ne voulez pas que Wget attend d'attendre entre différents téléchargements, et seulement entre tentatives de téléchargements déchirés, vous pouvez utiliser cette clé. Wget augmentera linéairement la pause, en attente de 1 seconde après la première défaillance de ce fichier, 2 secondes après la deuxième échec et ainsi de suite à la valeur maximale des secondes. Ainsi, la valeur de 10 entraînera de l'attente de Wget jusqu'à (1 + 2 + ... + 10) \u003d 55 secondes au fichier. Cette clé est activée par défaut dans le fichier global wgetrc.

--Random-wait.
Certains sites Web peuvent analyser des journaux pour identifier les heures de balancement, telles que Wget, étudier les similitudes statistiques dans des pauses entre demandes. Cette clé définit des pauses aléatoires dans la plage de 0 à 2 * attendre des secondes dans lesquelles la valeur d'attente est spécifiée par la touche - Attendez. Cela vous permet d'exclure Wget d'une telle analyse. Dans un article récent sur le développement de plates-formes d'utilisateurs populaires, un code a été présenté pour effectuer une telle analyse à la volée. L'auteur a suggéré de bloquer les sous-réseaux de classe C pour bloquer les programmes de téléchargement automatique, malgré le changement possible de l'adresse attribuée à DHCP. Pour créer la clé --Random-Wait, cette recommandation de maladie bloque de nombreux utilisateurs innocents par la faute d'un.

-Y ON / OFF
--Proxy \u003d marche / arrêt
Active ou désactive le support proxy. Si la variable d'environnement correspondante est installée, la prise en charge du proxy est activée par défaut.

-Q quota.
--Quota \u003d quota.
Définit le quota pour des téléchargements automatiques. La valeur est indiquée en octets (par défaut), kilo-octets (avec soffix k) ou mégaoctets (avec suffixe M). Le quota n'affecte pas le téléchargement d'un fichier. GZ, le fichier ls-lr.gz sera entièrement téléchargé. Il en va de même lorsque vous spécifiez quelques URL sur la ligne de commande. Le quota compte avec téléchargement récursif ou lors de la spécification des adresses dans le fichier d'entrée. Donc Vous pouvez spécifier en toute sécurité les sites WGET -Q2M -I - Le téléchargement sera interrompu lorsque le quota est atteint. Définition des valeurs 0 ou Inf annule des restrictions.

Dns-cache \u003d off
Désactive la mise en cache de requête DNS. Habituellement, l'état de WGET se souvient des adresses demandées dans DNS, il n'est donc pas nécessaire de demander constamment un serveur DNS sur le même ensemble d'adresses (généralement petit). Ce cache n'existe que dans la mémoire. Le nouveau processus WGET demandera à nouveau DNS. Cependant, dans certains cas, la mise en cache des adresses n'est pas souhaitable même sur une courte période de lancement d'une telle demande en tant que wget. Par exemple, les serveurs Secant HTTP ont des adresses IP allouées de manière dynamique qui change de temps à autre. Leurs enregistrements DNS sont mis à jour à chaque fois. Si le téléchargement de WGET à partir d'un tel hôte est interrompu en raison de la modification de l'adresse IP, le WGET répète la tentative de téléchargement, mais (en raison de la mise en cache DNS) tente de se connecter à l'ancienne adresse. Avec la mise en cache DNS WGET désactivée, les demandes DNS établiront des demandes DNS à chaque fois et, afin de recevoir l'adresse dynamique correcte. Si vous ne comprenez pas la description ci-dessus, cette clé n'est probablement pas nécessaire.

--Restrict-noms-noms \u003d mode
Définit quels jeux de caractères peuvent être utilisés lors de la création d'un nom de fichier local à partir de l'adresse URL supprimée. Les symboles interdits par cette clé sont blindés, c'est-à-dire Remplacé par% HH, où HH est un code hexadécimal du caractère correspondant. Par défaut, Wget Shields Caractères qui ne sont pas négociés pour faire partie du nom de fichier dans votre système d'exploitation, ainsi que des caractères de contrôle, en règle générale, non-impression. Cette clé est utile pour changer les valeurs par défaut si vous enregistrez le fichier sur une section non modulaire ou souhaitez annuler le blindage des caractères de contrôle. Lorsque le mode est défini sur "UNIX", des captures d'écran wget / et des caractères de contrôle dans les gammes de 0-31 et 128-159. Ceci est une valeur par défaut pour UNIX Type OS. Lorsque le mode est défini sur "Windows", Wget Scraps Caractères \\, |, /,: ,? ,?, ",", et des caractères de contrôle dans les gammes 0-31 et 128-159. De plus, Wget en mode Windows utilise + à la place: à Séparez l'hôte et les ports dans les noms de fichiers locaux et à la place? Pour comparer la partie requête du nom du fichier dans le reste. L'adresse URL stockée dans UNIX est la suivante: www..pl? entrée \u003d BHAH, en mode Windows être sauvé comme [Email protégé]\u003d bla. Ce mode est utilisé par défaut dans Windows. Si vous ajoutez au mode, NOCONTROL, par exemple Unix, NOCONTROL, le blindage des caractères de contrôle est désactivé. Vous pouvez utiliser --Restrect-file-noms \u003d Nocontrol pour désactiver le blindage des caractères de contrôle sans affecter la sélection du mode de dépistage dépendant du système d'exploitation des symboles de service.

Catalogues de clés

-nd
- Non-répertoires.
Ne créez pas la structure de répertoire avec téléchargement récursif. Avec cette clé, tous les fichiers sont enregistrés dans le répertoire en cours sans essuyer (si le nom est rencontré plus d'une fois, les noms recevront suffixe.n).

-X.
--Force-Annuaire.
Inverse -nd - crée une structure de répertoire, même s'il n'est pas créé sinon ..txt enregistrera le fichier sur le site / robots.txt.

-NH.
--No-host-répertoires
Désactive la création d'un catalogue hôte..en /. Cette clé annule un tel comportement.

--Protocol-Annuaire.
Utilisez le nom du protocole sous forme de composant répertoire pour les fichiers locaux. Par exemple, avec cette clé wget -r http: // hôte sauvera dans http / host / ... au lieu d'accueil / ....

- Coupe-DirS \u003d numéro
Ignorer le nombre de niveaux d'imbrication de répertoires. Il s'agit d'une clé utile pour gérer clairement le répertoire pour enregistrer le contenu téléchargé de manière récursive. Lorsque le téléchargement avec -r, une copie locale sera enregistrée sur FTP. Si la touche -NH peut supprimer FTP .. Ici il s'agit de l'aide - Coupons; Il provoque que Wget ferme les yeux sur le nombre de sous-répertoires distants. Vous trouverez ci-dessous plusieurs exemples de travail - DirS.

Aucune option -\u003e FTP. -NH -\u003e PUB / XXX / -NH --CUT-DIRS \u003d 1 -\u003e XXX / -NH - Coupe-DirS \u003d 2 -\u003e. --Coupt-dirs \u003d 1 -\u003e ftp.sype / xxx /

Si vous n'avez besoin que de vous débarrasser de la structure de répertoire, cette touche peut ensuite être remplacée par -nd et -P combinaison. Cependant, contrairement à -nd, -Coupt-DirS ne perd pas les sous-répertoires - par exemple, avec -NH -Ct-DirS \u003d 1, le sous-répertoire Beta / sera enregistré en tant que xxx / bêta, comme prévu.

-P préfixe.
- Directory-Prefix \u003d préfixe
Installe le répertoire racine du préfixe. Le répertoire racine est un répertoire où tous les fichiers et sous-répertoires seront sauvegardés, c'est-à-dire Le sommet de l'arbre téléchargé. Défaut. (Catalogue actuel).

Touches http

-E.
--html-extension
Cette clé ajoute au nom de l'extension de fichier local. HTML Si l'URL Downloade a le type d'application / XHTML + XML ou texte / HTML, et sa fin ne correspond pas à une expression régulière \\. Ceci est utile, par exemple, lors de la mise en miroir des sites à l'aide.asp pages lorsque vous souhaitez que le miroir fonctionne sur le serveur Apache habituel. Aussi utile lorsque vous téléchargez du contenu généré de manière dynamique. URL de l'http://site.com/article.cgi?25 sera enregistré comme article.cgi? 25.html. Les pages ainsi stockées téléchargeront et écraseront avec chaque miroir ultérieur, car Wget ne peut pas correspondre au fichier x.html local à l'adresse URL x distante (elle ne sait pas encore que l'URL renvoie une réponse Text / HTML ou Application / XHTML + XML). Pour éviter le rechargement, utilisez des touches -k et de -k, de sorte que la version d'origine soit enregistrée sous la forme de x.orig.

--HTTP-User \u003d utilisateur
--Http-passwd \u003d mot de passe
Spécifie le mot de passe utilisateur et mot de passe nom d'utilisateur pour accéder au serveur HTTP. Selon le type de requête WGET, il les codent à l'aide d'un système d'autorisation conventionnel (non protégé) ou de digère. Une autre façon de spécifier un nom d'utilisateur et un mot de passe est dans l'URL elle-même. Toute façon de révéler votre mot de passe à tous ceux qui vont courir ps. Pour éviter les informations de mot de passe, rangez-les dans des fichiers.wgetrc ou.netrc et assurez-vous que ces fichiers ne sont pas disponibles pour les autres utilisateurs utilisant Chmod. Les mots de passe particulièrement importants ne sont pas recommandés pour être stockés même dans ces fichiers. Ajustez les mots de passe sur les fichiers, puis supprimez immédiatement après le début de Wget.

--No-cache.
Désactive la mise en cache du côté serveur. Dans cette situation, WGET envoie la directive appropriée (pragma: No-cache) pour recevoir une version mise à jour, plutôt qu'une version mise en cache du fichier. Ceci est particulièrement utile pour effacer les documents obsolètes sur les serveurs proxy. Keching est autorisé par défaut.

--pas de cookies
Désactive l'utilisation des cookies. Les cookies sont un mécanisme de support de serveur. Le serveur envoie un cookie à la coopérative avec l'en-tête Set-Cookie, le client comprend ce cookie dans toutes les demandes suivantes. Parce que Les cookies permettent aux propriétaires de serveurs de suivre les visiteurs et d'échanger ces informations entre les sites, certaines les considèrent comme une violation de la confidentialité. Par défaut, des cookies sont utilisés; Cependant, la déséquation des cookies n'est pas effectuée par défaut.

- Fichier de cookies
Téléchargez des cookies à partir du fichier de fichier à la première demande HTTP. Fichier - Un fichier texte dans le format utilisé à l'origine pour le fichier cookies.txt Netscape. Habituellement, cette option est nécessaire pour miroir des sites nécessitant une autorisation pour une pièce ou tout le contenu. L'autorisation est généralement faite avec le serveur de cookie HTTP après la réception et la vérification des informations d'enregistrement. À l'avenir, Cookie est envoyé au navigateur lors de la visualisation de cette partie du site et fournit une identification. La mise en miroir d'un tel site nécessite de l'alimentation de Wget des mêmes cookies que le navigateur. Il est réalisé à travers - chargeux de cookies - Spécifiez simplement l'emplacement de votre wget de vos cookies.txt, et il enverra les cookies Identic Observer. Différents navigateurs stockent des cookies à différents endroits: Netscape 4.x. ~ / .Netscape / cookies.txt. Mozilla et Netscape 6.x. Cookie à Mozilla est également appelé cookies.txt, situé quelque part à l'intérieur ~ / .Mozilla dans le répertoire de votre profil. Le chemin complet ressemble généralement à ~ / .mozilla / default / certains-weird-string / cookies.txt. Internet Explorer. Un cookie pour WGET peut être reçu via le menu Fichier, l'importation et l'exportation, des cookies d'exportation. Testé sur Internet Explorer 5; Travailler avec des versions antérieures n'est pas garantie. D'autres navigateurs. Si vous utilisez un autre navigateur, la chargement des cookies ne fonctionnera que si le format de fichier correspondra au format Netscape, c'est-à-dire Qu'est-ce qui attend wget. Si vous ne pouvez pas utiliser de cookies - chargez des cookies, il peut y avoir une autre alternative. Si le navigateur a un "gestionnaire de cookies", vous pouvez afficher les cookies nécessaires à la mise en miroir. Notez le nom et la valeur des cookies et spécifiez manuellement leur support de soutien de WGET «officiel»:

Wget --cookies \u003d off --header "Cookie: nom \u003d valeur"

- Dossier de cookies
Économiser des cookies dans le fichier avant de sortir. Cette option ne permet pas d'économiser des cookies et des cookies existants sans une certaine période d'expiration (les soi-disant "cookies de session"). Voir aussi - Cookies de session.

--Eigne-session-biscuits
Lors de la spécification --Save-Cookies sauve des cookies de session. En règle générale, les cookies de session ne sont pas enregistrés, car il est signifié qu'ils seront oubliés après la fermeture du navigateur. Leur sauvegarde est utile pour les sites nécessitant une autorisation d'accéder aux pages. Lorsque vous utilisez cette option, différents processus wget pour le site ressembleront à un navigateur. Parce que En règle générale, le format de fichier de cookie ne contient pas de cookies de session, Wget marque leur horodatage 0.LoLoad-Cookies les perçoit comme des cookies de session, mais cela peut entraîner des problèmes d'autres navigateurs chargés de cette manière. Les cookies sont interprétés comme des cookies de session, C'est-à-dire que pour eux sauvegarder avec --Save-biscuits doit être spécifié à nouveau - des cas de session-session.

--Gnore-longueur.
Malheureusement, certains serveurs HTTP (programmes CGI, plus précisément) envoient un en-tête de longueur de contenu incorrect, ce qui réduit l'emballage fou, car Il pense que le document n'était pas complètement téléchargé. Ce syndrome peut être noté si Wget est à nouveau et cherche à nouveau de télécharger le même document, chaque fois que je spécifie la pause de connexion sur le même octet. Avec cette clé wget ignore l'en-tête de longueur de contenu, comme si c'était jamais.

--Header \u003d en-tête supplémentaire
Spécifiez l'en-tête supplémentaire d'en-tête supplémentaire pour envoyer un serveur HTTP. Les en-têtes doivent contenir ":" après un ou plusieurs caractères non vides et contiennent brièvement la traduction de la chaîne. Vous pouvez spécifier plusieurs en-têtes supplémentaires à l'aide de la clé --Hader plusieurs fois.

Wget --header \u003d "Accepter-Charset: ISO-8859-2" --Header \u003d "Accepter-Langue: HR" http://aaa.hr/

Une indication d'un en-tête de chaîne vide efface toutes les titres personnalisés précédemment spécifiés.

--Proxy-user \u003d utilisateur
--Proxy-passwd \u003d mot de passe
Spécifie le mot de passe utilisateur et mot de passe nom d'utilisateur pour autorisation sur un serveur proxy. WGET les codes en utilisant le schéma d'autorisation de base. Voici les mêmes considérations de sécurité que pour la clé --http-passwd.

--Referer \u003d URL
Inclus dans la demande du `Référeur: l'en-tête d'URL. Utile si lors de l'émission d'un document, le serveur croit que communiquer avec le navigateur interactif et vérifie que le champ de référeur contient la page indiquant le document demandé.

- Les en-têtes.
Enregistre les en-têtes de réponse HTTP dans le fichier directement avant le contenu, une chaîne vide est utilisée comme séparateur.

-U agente-string
--Utilisateur-Agent \u003d Agent-String
Il est identifié comme observateur de chaîne d'agent pour le serveur HTTP. Le protocole HTTP vous permet d'identifier les clients à l'aide du champ d'en-tête d'agent utilisateur. Cela vous permet de distinguer les logiciels, généralement pour les statistiques ou les troubles du protocole de suivi. Wget est généralement identifié comme wget / version, où la version est la version actuelle de wget. Cependant, certains sites détiennent une stratégie d'adaptation de sortie pour le navigateur en fonction du champ utilisateur-utilisateur. En principe, ce n'est pas une mauvaise idée, mais certains serveurs ont nié l'accès aux clients, à l'exception de Mozilla et de Microsoft Internet Explorer. Cette clé vous permet de modifier la valeur de l'agent utilisateur émis par Wget. L'utilisation de cette clé n'est pas recommandée si vous n'êtes pas sûr de ce que vous faites.

--Post-data \u003d chaîne
--Post-file \u003d fichier
Utilise la méthode postale de toutes les demandes HTTP et envoie les données spécifiées dans la requête. --Post-Data envoie une chaîne de chaîne en tant que chaîne de données et --post-fichier - le contenu du fichier de fichiers. Sinon, ils travaillent de manière égale. Veuillez garder à l'esprit que Wget doit connaître initialement la longueur de la demande postale. L'argument de la clé de fichier --Post doit être un fichier ordinaire; Remarque FIFO dans la forme / dev / stdin ne fonctionnera pas. Il n'est pas tout à fait évident que cette restriction peut être contournée dans http / 1.0. Bien que http / 1.1 introduit la partie dont elle ne nécessite pas de longueur de longueur initiale, le client ne peut pas l'utiliser s'il n'est pas confiant qui communique avec le serveur HTTP / 1.1. Et il ne peut pas le savoir jusqu'à ce qu'il reçoive une réponse, qui, à son tour, vient à une demande à part entière. Le problème des œufs et du poulet. Remarque: Si le WGET reçoit la redirection en réponse à la demande postale, elle n'enverra pas de données postales sur les URL de redirection. Souvent, le poste de traitement des adresses de l'URL reçoit la redirection à une page régulière (bien qu'elle soit techniquement interdite), qui ne veuille pas prendre post. Il n'est pas encore clair si un tel comportement est optimal; Si cela ne fonctionne pas, cela sera changé. L'exemple ci-dessous montre comment vous connecter sur le serveur à l'aide de l'article, puis téléchargez les pages souhaitées disponibles uniquement pour les utilisateurs autorisés:

Wget --Save-biscuits cookies..php wget -load-cookies cookies.txt -p http://server.com/interesting/article.php

Configuration de wget.

Les principaux messagers qui doivent écrire à chaque fois que vous pouvez spécifier dans le fichier de configuration du programme. Pour ce faire, allez dans le répertoire de travail WGET, trouvez le fichier Sample.wgetrc là-bas, renommez-le dans .wgetrc. Et l'éditeur va écrire les paramètres de configuration nécessaires.

User-Agent \u003d "Mozilla / 5.0" Trains \u003d 5 Nombre de tentatives Télécharger Wett \u003d 0 Ne pas faire continuer \u003d sur des pauses Vous devez télécharger DIR_PREFIX \u003d ~ / téléchargements / où plier le téléchargement UTILISE_PROXY \u003d ON - Utilisez le proxy http_proxy - les caractéristiques de votre serveur proxy.

  • Définissez la variable d'environnement WGGETRC en spécifiant le chemin complet.
  • Définissez la variable HOME dans laquelle vous devez spécifier le chemin d'accès au dossier HOME de l'utilisateur (C: \\ Documents et Paramètres \\ JONH). Ensuite, le wget recherchera le fichier "wgetrc" dans ce dossier.
  • De plus, vous pouvez créer un fichier wget.ini dans le même dossier où il existe une wget.exe, et définissez les paramètres facultatifs de Wget Commandille.

Des informations utiles sur Wget peuvent être apprises ici:

  • Phantomjs - Utilisez si vous devez télécharger le site, une partie des données sur lesquelles est chargé à l'aide de JavaScript.

Introduction à gnu wget

GNU WGET est un logiciel libre pour récupérer des fichiers à l'aide de HTTP, HTTPS, FTP et FTPS les protocoles Internet les plus utilisés. Il s'agit d'un outil de commande de commande non interactif, il peut donc facilement être appelé à partir de scripts, d'emplois, de terminaux sans support X-Windows, etc.

GNU WGET dispose de nombreuses fonctionnalités nécessaires à la récupération de fichiers volumineux ou à refléter des sites Web entiers ou FTP, notamment:

  • Peut reprendre des téléchargements avortés, utiliser et
  • Peut utiliser des cartes Wild FileName et des répertoires de miroir récursives
  • Fichiers de message basés sur NLS pour de nombreuses langues différentes
  • Éventuellement convertit des liens absolus dans des documents téléchargés à la relative, de sorte que les documents téléchargés puissent se lier les uns aux autres localement.
  • Fonctionne sur la plupart des systèmes d'exploitation de type UNIX ainsi que Microsoft Windows
  • Prend en charge les proxy HTTP
  • Prend en charge les cookies HTTP
  • Prend en charge les connexions HTTP persistantes
  • Opération sans surveillance / d'arrière-plan
  • Utilisez des horodatages de fichier locaux pour déterminer si des documents doivent être téléchargés à nouveau lors de la mise en miroir
  • GNU WGET est distribué sous la licence publique générale GNU.

Le code source de GNU WGET peut être trouvé ici ou sur nos miroirs.
Pour plus d'options de téléchargement, voir la FAQ.

Documentation

La documentation GNU Wget peut être trouvée ici.
Pour les manuels d'autres packages GNU, veuillez consulter www.gnu.org.

INFORMATIONS COMPLÉMENTAIRES.

Actuellement gnu wget2 est en cours de développement.
Aidez-nous s'il vous plaît si vous le pouvez avec tests, docs, organisation, développement, ... vous voir sur Wget2 Collaboration Site

Mainteneur.

GNU WGET est actuellement entretenu par Tim Rühsen, Darshit Shah et Giuseppe Scrivano.
L'auteur original de Gnu Wget est Hrvoje Nikšić.
S'il te plaît. fais. pas. Contactez directement les rapports de bogues ou les demandes d'aide avec Wget: c'est ce que la liste de diffusion est pour; S'il vous plaît utilisez-le à la place.

Donateurs.

Nous thak The Typo3 & Magento Partner Aoe Media pour avoir fait don d'un projet WGET.

wget - dame téléchargements
(Téléchargez des fichiers et des sites d'Internet à GNU / Linux)

Sur l'amour wget tellement de chansons Spito
Je chanterai, tu chanteras, une autre ...

Romance de K / F "Trois autres"

Une tâche: Je veux Teleport Pro et FlashGet pour Linux, télécharger des sites et des fichiers.

Décision: Découvrez pour vous-même wget. - Tout est dans une bouteille et encore plus.

Il est souvent recherché beaucoup de programmes graphiques avec plusieurs boutons - mais il y a un utilitaire qui peut les remplacer et fournir les possibilités qui ne sont plus nulle part.

il wget. Et tout ce qui est basé dessus. Le développement de cet utilitaire nécessite des efforts et au moins une lecture rapide du manuel, mais en retour, vous recevez un utilitaire puissant qui économisera votre temps et votre trafic.

Ça vaut la peine de dire que homme wget. À première vue, fait une impression écrasante, mais vous comprenez alors que toutes les options ne sont pas nécessaires dans une utilisation quotidienne. Vous trouverez ci-dessous les options les plus fréquemment utilisées.

En utilisant un "flashget pour Linux"

Il vous suffit de télécharger un fichier et / ou de continuer à télécharger, ce qui s'est rompu. C'est très et très facile à faire, écrivant plusieurs lignes dans le terminal.

Téléchargez simplement le fichier wget:

$ wget ftp://vasya.pupkin.com/film.avi.

Une autre option: une partie du fichier téléchargé, le téléchargement a été coupé.

Pour continuer le fichier télécharger, écrivez:

$ wget -c ftp://vasya.pupkin.com/film.avi ou $ wget -Continue ftp://vasya.pupkin.com/film.avi

Au lieu de cela, il est possible d'écrire -Continuer, car chaque touche a une forme courte et longue: les touches longues sont plus faciles à retenir, mais d'écrire plus longtemps. Vous pouvez facilement mélanger diverses formes d'écriture.

Pour pomper les fichiers de la liste contenant des liens directs:

$ wget -i puppiniste ou $ wget -input-file \u003d pupkinlist

Il est seulement indiqué ici déposerqui contient des liens. Le fichier peut également être une page HTML dans laquelle il existe des liens.

Les fenêtres. Installation de wget dans Windows XP / 7/8 / 8.1 / 10

Ils seront vendus la commande ci-dessus.

Utilisez un "Teleport Pro pour Linux"

Lorsque vous téléchargez plus d'opportunités de sites Web et que plus de clés sont donc nécessaires. Encore une fois, il n'est pas nécessaire de se souvenir d'eux, vous pouvez faire un script (et mieux un peu - pour des cas différents) et les causer.

Sites de mise en miroir sur la voiture locale:

$ wget -m http://www.vasyapupkin.com/

Copier le site pour la visualisation locale:

$ Wget -r -l0 -np -k http://www.vasyapupkin.com/

Cela inclura un déchargement récursif (Key -R, -Recursive), c'est-à-dire non seulement des fichiers de la page principale, mais également de tous les autres sur lesquels les liens dirigent (clé-nid de référence infini).

Les noms de liaison seront convertis en local pour une commodité de la visualisation (Key -KK). En outre, à l'aide de la touche -NP (no-perrente), vous pouvez interdire à Wget grimper au-dessus de l'adresse initiale pendant le téléchargement récursif, c'est-à-dire si vous copiez http://home.vasyapupkin.com/ ces liens à partir du site principal HTTP: // www. vasyapupkin.com/ ne sera pas copié.

Plusieurs clés utiles

Activation et à l'exclusion des fichiers lors du chargement:

Un acclist ou -Aaccept acclist -r Rejlist ou Rejlist -Reject

Spécifie les fichiers partagés par des modèles de virgule qui doivent être téléchargés (ACCLIST) ou Ignorer (réjérapir).

K ou -convert-liens

Tourne les liens absolus (type http: // www ...) vers relatif (type Fichier /// home / Vasya / www / index.html) pour la commodité de la visualisation locale. Pour afficher le site téléchargé dans le navigateur localement, ouvrez le fichier index.html dans le navigateur et racine le long des liens comme si vous étiez connecté à Internet.

H ou -span-hôtes

Permet à Wget Téléchargez des données à partir de n'importe quelle adresse à laquelle il existe un lien dans le document demandé.

P ou -page-requis

Charge tous les fichiers nécessaires pour afficher des pages HTML. Par exemple: dessins, styles de son et de cascade. Une fois le téléchargement terminé, il convertit des liens vers un document pour la visualisation hors ligne. Cela concerne non seulement des références visibles à d'autres documents et des liens vers tous les fichiers locaux externes.

siteGet - Un script simple pour télécharger des sites

Si vous êtes fatigué de toute ces sagesse avec des clés wget. Et vous avez juste besoin de télécharger le site, puis siteGett. Vous allez certainement l'aimer. Ceci est un script assez simple avec les paramètres nécessaires au téléchargement du site.

Vous pouvez télécharger le script d'ici. Après le téléchargement, il est logique de le copier dans un mode de superutilisateur à l'un des répertoires prescrits dans la variable $ chemin: le système d'exploitation les scanne automatiquement à la recherche de fichiers exécutables. Par exemple, dans le répertoire / Utilisateur / local / bin:

# CP (répertoire où se trouve le script) / Sicilet / utilisateur / local / bin / Sicilet

Le script doit également attribuer un attribut de fichier exécutable:

# CHMOD A + X / USR / local / bin / sieget

Utilisant siteGett. Très simple:

$ SITECOME http://www.vasyapupkin.com/

Département du MDA biblique, 2008.
Dernière mise à jour:
Adresse sur Internet: http://www.bible-mda.ru/soft/wget/wget.html

Simplement télécharger un fichier Wget:

wget ftp://vasya.pupkin.com/film.avi.

Pour continuer l'injection brisée Nous écrivons:

wget -c ftp://vasya.pupkin.com/film.avi.

wget -Continue ftp://vasya.pupkin.com/film.avi.

Comme dans d'autres programmes, les clés ont une forme courte et longue, et vous pouvez plutôt écrire. Les touches longues sont plus faciles à retenir, mais d'écrire plus longtemps. Vous pouvez facilement mélanger diverses formes d'écriture.

À déployer des fichiers de la listecontenant des liens directs:

wget -i puppinlist.txt

wget -input-file \u003d puppinlist.txt

Ici, seul le fichier contient des liens. Le fichier peut également être -prack, dans lequel il existe des liens. Ils seront vendus la commande ci-dessus.

Utilisez un "Teleport Pro pour Linux".

Lorsque vous téléchargez plus d'opportunités de sites Web et que plus de clés sont donc nécessaires.

Encore une fois, il n'est pas nécessaire de se souvenir d'eux, vous pouvez faire un script (et mieux un peu - pour des cas différents) et les causer.

Donc, s'il y a un site Web, et j'aimerais avoir sa copie locale sur l'ordinateur, de sorte que, éteignant du réseau, il était possible que ce n'était pas pressé de le lire.

Sites de mise en miroir sur la voiture locale:

wget -m http://www.vasyapupkin.com/

de manière équivalente, ces options sont décrites ci-dessous.

Copier le site pour la visualisation locale (avec le remplacement des liens Internet vers des adresses locales Pages téléchargées):

wget -r -l0 -k http://www.vasyapupkin.com/

Cela inclura un déchargement récursif (Key -R, -Recursive),

En wget, il existe un grand nombre d'options utiles - plus que les téléportations "et les drapeaux. En cours d'enveloppe dans un script, par exemple, et posé pour une place importante (spécifiée dans), nous avons la facilité d'utilisation et la richesse des réglages.

Ne vous soulevez pas au-dessus de l'adresse initiale lors du téléchargement récursif.

Activez les répertoires de visualisation et les sous-répertoires récursifs sur un serveur distant.

Déterminez la profondeur maximale de la récursivité égale à la profondeur lors de la visualisation de répertoires sur un serveur distant. Profondeur par défaut \u003d 5.

N'allez pas au répertoire parent lors de la recherche de fichiers. Il s'agit d'une propriété très utile car elle garantit que seuls les fichiers inférieurs à une certaine hiérarchie seront copiés.

Une liste de noms de fichiers séparés par des virgules, qui devraient (accepter) ou ne pas (rejetter) télécharger. Il est autorisé à définir les noms de fichiers sur le masque.

Wget pour Windows. Installation et utilisation.

Transformez les liens absolus dans le document sur des liens relatifs. Seules les références qui indiquent que les pages réellement téléchargées seront converties; Le reste ne sera pas transformé. Notez que seulement à la fin du travail de Wget pourra savoir quelles pages ont été réellement chargées. Par conséquent, seulement à la fin du travail WGET sera effectué une transformation finale.

Spécifiez le nom d'utilisateur et le mot de passe InSserver.

Vous permet de visiter tous les serveurs auxquels il y a un lien.

Téléchargez tous les fichiers nécessaires pour afficher les pages. Par exemple: dessins, sons, styles de cascade (). Par défaut, ces fichiers ne sont pas chargés. Paramètres et spécifiés ensemble peuvent aider, mais parce que Wget ne distingue pas les documents externes et internes, alors il n'y a aucune garantie que tous les besoins seront chargés.

Liens

Informations sur le programme

WGET est un utilitaire de console pour télécharger des fichiers à l'aide de protocoles HTTP, FTP et de connexions proxy.

wget pour Windows.

Le programme vous permet de copier des sites HTML simples tout en sauvegardant la structure des répertoires. Vous permet de trouver et de traiter les données robots.txt, il est capable de convertir des liens pour l'accès hors connexion ultérieur. Contient un outil pour comparer les en-têtes de fichier pour télécharger de nouvelles versions et créer des copies de miroir.

L'application prend en charge la reprise du travail lorsqu'une erreur survient ou rompre le couplage, un saut récursif indiquant le masque de nom et la profondeur des liens d'exercice. Il est capable de se connecter au serveur FTP, de se connecter en arrière-plan aux sites HTTPS protégés.

Le programme est capable de mener un journal détaillé, est le moyen optimal de création de miroirs de stockage à distance ou de ressources Web, de diffuser des données de serveurs FTP.

Téléchargez gratuitement la version complète de Wget du site officiel sans inscription et SMS.

Configuration requise

  • OS pris en charge: Windows XP, 7, 10, 8, Vista, 8.1
  • Bitunie: 32 bits, x86, 64 bits

Wget - console bootloader pour télécharger des sites et son utilisation dans Windows

wget - console utilitaire pour télécharger des fichiers / sites, peut faire défiler des fichiers de manière récursive, en suivant les liens automatiquement.

Équipe La description
wget http://example.com/file.zip. télécharger File.Zip Fichier dans le répertoire actuel
wget -p / chemin / à / à / enregistrer http://example.com/file.zip télécharger File.Zip Fichier vers Annuaire / Chemin / Pour / Enregistrer
wget -c http://example.com/file.zip. switch File.Zip Fichier en cas de falaise
wget -o arch.zip http://example.com/file.zip téléchargez le fichier fichier.zip et enregistrez-le sous le nom Arch.Zip
wget -i fichiers.txt télécharger des fichiers dans la liste dans Files.txt
wget -Tries \u003d 10 http://example.com/file.zip nombre de tentatives de téléchargement
wget -q5m -i http://example.com/ quata pour la taille maximale des fichiers téléchargés, le quota est valide uniquement avec téléchargement récursif (-r)
wget -save-cookies cookies.txt -Post-Data 'Nom d'utilisateur \u003d Proft & Mot de passe \u003d 1' http://example.com/auth.php identification sur le serveur avec la préservation de la cuisson pour un accès ultérieur
wget -user-agents \u003d »Mozilla / 5.0 (x11; Linux x86_64) Applewebkit / 536.5 (KHTML, comme Gecko) Chrome / 19.0.1084.9 Safari / 536.5" http://example.com/ nOTE Agent utilisateur.
echo 'wget http://example.com/file.zip' | à 12h00 téléchargez http://example.com/file.zip à 12h00 dans le répertoire actuel
wget ftp://example.com/dir/*.zip.
wget http://example.com/dir/file (1..10) .zip. téléchargez tous les fichiers par modèle
wget -s http://example.com/ sortie HTTP Server en-têtes et réponses Serveurs FTP
wget -spider -i urls.txt vérifiez les liens dans le fichier pour la disponibilité
wget -b http://example.com/file.zip. télécharger un fichier en arrière-plan, journal est écrit dans wget.log, wget.log.1, etc.
exporter http_proxy \u003d http: //proxy.com: 3128 /; wget http://example.com/file.zip télécharger le fichier * fichier.zip * via proxy
wget -m -w 2 http://example.com/ reflétage du site avec la préservation des liens absolus et attente 2 secondes entre les demandes
wget -limit-tarif \u003d 200k http://example.com/file.zip restreindre la vitesse de téléchargement
wget -r BMP http://example.com/ ne téléchargez pas les fichiers BMP
wget -a png, jpg http://example.com/ téléchargez uniquement les fichiers PNG et JPG

Exemple d'utilisation pour télécharger la documentation Django.:

  • - Nous marchons sur les liens (téléchargement récursif)
  • - Convertir des liens vers les espèces locales
  • - Téléchargement de ressources requises pour afficher une page HTML (styles, images, etc.)
  • - la profondeur du téléchargement, 0 - Liens d'imbrication infinis
  • - Ne pas écraser les fichiers existants
  • - Ne dépassez pas l'adresse initiale lors du téléchargement récursif

Souvent utilisé wget. Les paramètres peuvent être sortis dans ~ / .wgetRC.

cURL - Utilitaire de données de la console Utilisation de la syntaxe URL, prend en charge les dict, le fichier, le FTP, les FTP, le gopher, le HTTP, le HTTPS, l'IMAP, les images imatiques, le LDAP, les LDAPS, le POP3, les POP3, la RTMP, le RTSP, le SCP, le SFTP, le SCP, le SMTP, le Telnet et le SMTP Tftp.

Équipe La description
curl http://proft.me. nous obtenons le contenu principal de la page
curl -o index.html http://proft.me obtenez le contenu de la page principale dans le fichier index.html
curl -L http://example.com. lorsque vous recevez le contenu de la page pour suivre les redirections (le cas échéant)
curl -U Nom d'utilisateur: Mot de passe http://example.com/login/ obtenir une page cachée pour l'authentification HTTP de base
curl -x proxy.com:3128 http://proft.me obtenir une page en utilisant proxy
curl -i Proft.Me. nous obtenons des en-têtes HTTP du site
curl -H 'Host: Google.ru' http://proft.me créez un domaine lorsque vous accédez au serveur (transférer votre en-tête)
curl -Request Post "http://example.com/form/" -Data "field1 \u003d value1 & fiel2 \u003d valeur2"
curl -X Post "http://example.com/form/" -Data "champ1 \u003d value1 & fiel2 \u003d value2" transfert de données post-requête
curl -X Post -h "Type de contenu: Application / Json" -D '"Titre": "Commando», »Année»: »1985" http://example.com/api/movies/ demande de transfert de données, données JSON
curl -Request Mettez "http://example.com/api/movie/1/" -Data "titre \u003d djangoonchained" demande de transfert de données
curl -f. [Email protégé] -F Soumettre \u003d OK http://example.com/upload/ télécharger File.Zip File Shape (Multipart / Form-Data)
curl -U Nom d'utilisateur: mot de passe -o ftp://example.com/file.zip télécharger le fichier avec ftp
curl -U Nom d'utilisateur: Mot de passe -T File.zip ftp://example.com/ télécharger FTP Fichier
curl -Cookie "Login \u003d Proft" http://example.com/login/ installer des cookies
curl -cookie-jar cookies.txt http://example.com.com Économiser des cookies pour déposer
curl -cookie cookies.txt http://example.com/login/ utilisation de biscuits préservés

Fiction supplémentaire

GNOU. Wget. - Il s'agit d'une petite utilité utile et ouverte déplacée pour télécharger des fichiers d'Internet. Il prend en charge les protocoles HTTP, HTTPS et FTP, téléchargez à partir des serveurs proxy HTTP. Parmi les caractéristiques du programme vaut noter:

  • Site Bypassing: wget peut aller sur les liens sur les pages HTML et créer des copies locales de sites Web distants, tout en restaurer complètement la structure du dossier de site ("téléchargement récursif" - téléchargement récursif). Au cours de ce travail, WGET recherche un fichier avec accès aux robots (/robots.txt). Il est également possible de convertir des liens vers les fichiers HTML téléchargés pour une visualisation ultérieure du site hors ligne ("Navigation hors ligne").
  • Vérifiez les en-têtes de fichier: Wget peut lire les en-têtes de fichier (ceci est disponible via des protocoles HTTP et FTP) et les comparez aux titres des fichiers précédemment téléchargés, après quoi vous pouvez télécharger de nouvelles versions de fichiers. Cela vous permet d'utiliser WGET pour les sites de miroir ou des fichiers sur FTP.
  • Suite Télécharger: Si le problème se produit pendant le téléchargement, le wget essaiera de continuer à télécharger le fichier. Si le serveur à partir duquel le fichier est chargé, prend en charge le fichier dans le fichier, le WGET continuera de télécharger le fichier de l'endroit où le téléchargement a éclaté.

Fichiers de configuration:

/ Usr / local / etc / wgetrc - l'emplacement du fichier de paramètres par défaut.
.wgetrc - Le fichier de paramètres utilisateur d'un utilisateur particulier (n'est pas à Snachy comme dans le dossier de cet utilisateur).

Syntaxe:

wget [ paramètres] [URL]

Paramètres:

  • -V (-Version) - Affiche la version wget.
  • -h (--Help) - Affiche les paramètres de la ligne de commande WGET.
  • -B (- - -Background) - Allez en mode arrière-plan après le lancement. Si le fichier de messages n'est pas spécifié par le paramètre -o, il est écrit dans wget-journal.
  • -E. commande (--exécuter. commande) -Effectuer commander. comme s'il faisait partie .wgetrc.. La commande sera exécutée après les commandes de .wgetrc..

Options de message:

  • -o. fichier journal (--Output-File \u003d fichier journal) -Écrivez tous les messages dans fichier journal.. Sinon, ils seront dirigés vers STDERR.
  • -une. fichier journal (--Append-sortie \u003d fichier journal) -Supplémentaire fichier journal.. Comme -o, seulement fichier journal. Non remplacé, mais complété. Si un fichier journal. Il n'y a pas non plus, un nouveau fichier est créé.
  • -D (--Debug) - Afficher les messages de débogage - informations différentes, importantes pour les développeurs Wget.
  • -Q (-Quiet) - éteignez les messages wget.
  • -V (-verbose) - Activez les messages détaillés, avec toutes les données disponibles. Par défaut inclus.
  • -NV (--Non-Verbose) - Iceplisez les messages abrégés (pour éteindre les messages, voir -q). Les messages d'erreur et les informations de base seront affichés.
  • -JE. déposer (--Input-file \u003d déposer) -Lire l'URL déposer. Dans ce cas, vous n'avez pas besoin de spécifier l'URL de la ligne de commande. Si l'URL est également spécifiée sur la ligne de commande et dans déposer, Tout d'abord, l'URL sera téléchargée à partir de la ligne de commande. déposer Il ne doit pas nécessairement avoir un format HTML (mais rien de terrible, si oui) - l'URL devrait simplement être indiquée. (Si vous spécifiez --force-HTML, le fichier sera lu en tant que HTML. Dans ce cas, des problèmes de références relatives peuvent être empêchés en ajoutant. "ou entrée sur la ligne de commande --base \u003d uRL.)
  • -F (-force-html) - Lors de la lecture de l'URL dans le fichier, vous inclut la lecture d'un fichier en tant que HTML. Pour prévenir les erreurs dans le cas du fichier HTML local, ajoutez-le au fichier " "Ou entrez le paramètre de ligne de commande --Base.
  • -B. URL (--Base \u003d. URL) -Lors de la lecture de l'URL du fichier (-f) définit URL, ajouté aux destinations relatives du fichier spécifié par le paramètre -i.

Chargement

  • - adresse - adresse \u003d Adresse -Lorsque les connexions via TCP / IP transmettent "BIND ()" IN Adresse sur une machine locale. DANS Adresse Il peut être indiqué à la fois le nom d'hôte et l'adresse IP. Utilisé si votre ordinateur a plusieurs adresses IP.
  • -t. nombre (--Tries \u003d. nombre) -Définit le nombre de répétitions nombre. Spécifiez 0 ou Inf d'annuler les répétitions.
  • -O. déposer(--Output-Document \u003d déposer) -Les documents ne seront pas enregistrés dans les fichiers correspondants et seront combinés ensemble et enregistrés dans le fichier. déposer. Si un déposer Il y a, il sera remplacé. Si un déposer Comme -, les documents seront affichés sur la sortie standard (stdout). Ce paramètre définit automatiquement le nombre de répétitions dans 1. Utile lorsque vous téléchargez des fichiers divisés de serveurs de messagerie via l'interface Web.
  • -NC (- -NO-CLOBBER) - Si lorsque vous téléchargez le site du site, la connexion est désactivée, puis spécifie ce paramètre pour continuer le chargement à partir du site d'interruption.

Lorsque vous démarrez un wget sans paramètres -n, -nc, ou -r télécharger le même fichier dans un dossier créera une copie du fichier nommé déposer.une. S'il y a un fichier et avec le même nom, la troisième copie sera appelée déposer.2, etc. Le paramètre -NC affichera des avertissements à ce sujet.

Lorsque vous démarrez le wget avec le paramètre -r, mais sans -n ou -nc, le nouveau téléchargement du site remplacera les fichiers déjà chargés. Lors de la spécification du paramètre -NC, le téléchargement continuera à partir de la panne et des fichiers téléchargés ne seront plus chargés (à moins qu'ils ne changent pas). Lorsque vous démarrez le wget avec le -n, avec ou sans paramètre, le fichier sera Chargé uniquement s'il est plus récent que déjà existant, ou si la taille ne coïncide pas avec la copie disponible (voir la comparaison par date). -NC n'est pas combiné avec -n. Imprimez les fichiers de paramètres -NC spécifiés avec extensions.html ou (ceci est affreux) .htm à partir de lecteurs locaux sera chargé, comme si if d'Internet.

  • -C (--Continue) - Renouveler le téléchargement de fichier. Utilisé si le téléchargement de fichier a été interrompu. Par example:

Si le dossier actuel a déjà un fichier nommé ls-lr.z., Wget vérifiera si ce fichier correspond au fichier téléchargeable (non en taille!), Et si oui, il enverra une demande au serveur pour continuer à télécharger le fichier du même endroit où le téléchargement a été brisé la dernière fois. N'oubliez pas que lorsque la rupture de Wget, il répète des tentatives de télécharger vous-même et sans paramètre -c, et uniquement lorsqu'elle «abandonnera» et complète son travail, puis de reprendre le chargement du fichier aura besoin de ce paramètre.

Sans spécifier l'option -C, l'exemple précédent chargera le fichier de fichier spécifié avec le nom final. ls-lr.z.1., pas de contact déjà existant ls-lr.z..

À partir de la version 1.7, lors de la spécification du paramètre -c, si le fichier sur le serveur est égal ou inférieur à celui du fichier local, la taille, le wget ne téléchargera rien et affiche le message correspondant.

Lorsque vous utilisez -c, tout fichier sur un serveur ayant une taille plus grande que le fichier local sera considéré comme non attaché. Il sera chargé et enregistré à la fin du fichier que les octets «manquants» du plus grand en boîte. Cela peut être utile, Elsi vous devez télécharger de nouveaux messages à partir de n'importe quel magazine (log).

En même temps si le fichier téléchargeable est plus parce qu'il modifiéVous recevrez un fichier endommagé (c'est-à-dire que le fichier peut éventuellement s'avérer complètement différent de l'original). Il est nécessaire d'être particulièrement attentionné lors de l'utilisation de -c avec -r, car chaque fichier modifié peut être un candidat pour «chargement incomplète».

Vous obtiendrez également un fichier endommagé si votre serveur proxy HTTP fonctionne stupide et lorsque la connexion est cassée, elle écrit au message "" Transférer un fichier interrompu "." Probablement dans les versions suivantes de Wget le corrigera.

N'oubliez pas que -C fonctionne uniquement avec des serveurs FTP et HTTP prenant en charge les en-têtes "Plage" (c'est-à-dire des fichiers à fichier).

  • --Progue \u003d. taper -Charger l'indicateur de progression et son type. Valeurs possibles: `` dot "" et "bar" "

La valeur par défaut est` `bar». Spécification de l'option --Programme \u003d La barre conduira au dessin d'un bel indicateur de caractères ASCII (comme "" thermomètre "). Si la sortie standard n'est pas TTY, alors sera utilisée "DOT". "

Spécifiez --Programme \u003d DOT pour passer au type «DOT». La progression de chargement sera marquée en ajoutant un point ou un signe dans la bande égale à chaque symbole représente la même quantité de données.

Lorsque vous utilisez ce type, vous pouvez spécifier son style - DOT: style.. Si le style est "par défaut", chaque caractère représentera 1 Ko, 10 caractères dans le cluster et 50 dans la chaîne. Le style "binaire" a une vue plus "de l'ordinateur" - 8 Ko dans un symbole, 16 caractères dans un cluster et 48 caractères de la chaîne (il s'avère une ligne de 384 Ko). Le méga style est utilisé pour télécharger de gros fichiers - chaque symbole représente 64 Ko, 8 caractères dans le cluster et 48 caractères de la chaîne (3 Mo par ligne est obtenu).

Vous pouvez définir le style par défaut à l'aide de la commande "Progress" dans .wgetrc.. Si vous souhaitez que le type de l'indicateur `` bar »soit utilisé toujours (et non seulement lors de l'affichage dans STDOUT), spécifiez-vous --Programme \u003d barre: force.

  • -N (--Timestamping) - Activer la comparaison par date.
  • -S (--Server-réponse) - Les en-têtes d'affichage envoyés par des serveurs HTTP et des demandes envoyées aux serveurs FTP.
  • --Spider - Installation du comportement wget en tant que "araignée", c'est-à-dire que wget ne chargera pas de fichiers, mais ne vérifiera que leur présence. Vous pouvez donc vérifier les signets et les liens du site. Par example:

wget --Spider --force-html -i bookmarks.html

Wget ne contient pas toutes les caractéristiques des "vraies araignées" pour www.

  • -T secondes (--timeout \u003d secondes) -Temps d'attente en quelques secondes. Par défaut, le temps d'attente est de 900 s (15 min). Réglage de la valeur à 0 annule le chèque de temps d'attente. Veuillez ne pas réduire la valeur du temps d'attente si vous ne savez certainement pas ce que vous faites.
  • -w. secondes (--wait \u003d. secondes) -Pause en secondes entre plusieurs charges (y compris les répétitions). Cela réduit la charge du serveur. Pour spécifier une valeur en minutes, utilisez "M", dans l'horloge - "H", dans les jours - "D" après le numéro. La spécification de la grande valeur de ce paramètre est utile si le réseau est instable (par exemple, lorsque la communication du modem se casse).
  • --Waitretry \u003d. secondes -Définit la pause uniquement entre les charges d'inverser. Wget attendra 1 seconde après la première pause, 2 secondes après la deuxième falaise du démarrage du même fichier, etc. - au maximum, qui est indiqué en quelques secondes. Par exemple, avec la valeur de ce paramètre, égal à 10, le WGET attendra en général (1 + 2 + ... + 10) \u003d 55 secondes pour chaque fichier. Cette valeur est spécifiée par défaut dans le fichier. wgetrc..
  • --Random-wait - certains serveurs, faisant des fichiers journaux avec des pauses de requête de fichier, peuvent déterminer le téléchargement récursif de fichiers - numériser des robots tels que wget. Ce paramètre définit l'heure entre les demandes en faisant varier les pauses avec le temps calculé de 0 à 2 * attendez. (secondes), où attendez. Il est indiqué par le paramètre -w pour masquage wget. Vous ne devez pas oublier que le code source du wget est disponible et il est même possible de calculer ce déguisement si vous le souhaitez.
  • -Y ON / OFF (--PROXY \u003d ON / OFF) - Support de serveur proxy. Activé par défaut si le proxy est défini.
  • -Q. quota(--Quota \u003d. quota) -Quota pour la taille des fichiers téléchargeables. Il est indiqué en octets (par défaut), en kilobytes KB (si à la fin de k) ou en mégaoctets MB (si à la fin de M).

Lorsque le quota échappe au fichier actuel est chargé à la fin, c'est-à-dire que le quota ne fonctionne pas lors du chargement d'un fichier..gz, puis du fichier. ls-lr.gz. sera entièrement chargé. De plus, tous les fichiers spécifiés sur la ligne de commande seront chargés, contrairement à la liste des fichiers dans un fichier ou à la fois lors du téléchargement récursif.

Spécifiez 0 ou INF annulera le quota.

Options de démarrage de Failock

  • -ND (-NO-Annuaire) - Ne créez pas la structure de dossiers avec téléchargement récursif. Avec le paramètre spécifié, tous les fichiers seront chargés dans un seul dossier. Si le fichier avec ce nom existe déjà, il sera enregistré dans le fichier Nom.
  • -X (-Force-Annuaire) - L'opposé de la structure de dossier -ND - Créer un dossier, à partir de la page principale du serveur ..txt pour charger le fichier dans le dossier fly.srk.fer.hr..
  • -NH (- -No-host-répertoires) - Ne créez pas de dossiers vides au début de la structure. Par défaut / pub / xemacs /. Si vous le téléchargez avec le paramètre -R, il sera enregistré sous le nom. ftp.. Avec le paramètre -NH du nom du dossier initial coupera ftp.sype /et elle sera appelée pub / xemacs.. Et le paramètre -cut-DirS supprimera nombre Composants.

Si vous voulez simplement vous débarrasser de la structure du dossier, vous pouvez remplacer ce paramètre sur -nd et -p. Contrairement à -ND, -ND fonctionne avec des sous-répertoires - par exemple, avec -NH -Ct-DirS \u003d 1 sous-répertoire bêta / Faux, comme xemacs / bêta..

  • -P. préfixe (- Directory-Prefix \u003d préfixe) -Détermine dossier initialoù la structure du dossier de site (ou simplement des fichiers) sera enregistrée. Par défaut, ce paramètre est égal. (Dossier en cours).

Paramètres HTTP

  • -E (--html-extension) - si le type de fichier texte / HTML chargé et son adresse ne se termine pas sur \\.?, Lorsque vous utilisez ce paramètre, il sera ajouté à son nom.html. Il peut être utile lorsque vous souhaitez des pages en miroir, si vous ne souhaitez pas qu'ils interfèrent avec le travail de votre serveur Apache. Un autre cas d'application de ce paramètre est le téléchargement de pages de réponse de script CGI..cgi? 25 sera enregistré comme article.cgi? 25.html.. (Lors de la mise à jour ou une autre pages de redémarrage avec ce paramètre, ce dernier remarquera à nouveau dans tous les cas, car Wget ne peut pas savoir si le fichier local a le ratio X.html. Chargé avec URL X.. Pour éviter tout redémarrage inutile, utilisez les options -k et lek. Dans ce cas, les versions originales des fichiers seront également enregistrées comme X.orig.)
  • --HTTP-User \u003d utilisateur (--Http-passwd \u003d lE MOT DE PASSE) -Nom d'utilisateur utilisateur. et mot de passe mot de passe. Pour le serveur HTTP. Selon le type de réponse, le WGET utilisera une autorisation "Basic" (dangereuse "ou" Digest "(sécurisée). Vous pouvez également spécifier le nom d'utilisateur et le mot de passe et dans l'URL elle-même.
  • -C On / Off (-Cache \u003d marche / arrêt) - active ou désactive la mise en cache du serveur. Dans ce cas, WGET envoie la demande appropriée (pragma: non-cache). Également utilisé pour mettre à jour rapidement des fichiers sur le serveur proxy. Par défaut, la mise en cache est autorisée.
  • --Cookies \u003d ON / OFF - Active ou désactive l'utilisation de Cookie. Le serveur envoie un cookie au client à l'aide de l'en-tête "Set-Cookie" et le client rencontre le même cookie. Grâce à cela, le serveur peut diriger les statistiques des visiteurs. Par défaut, les cookies sont utilisés, mais les enregistrer sur le disque est désactivé.
  • - chargades-cookies. déposer -Télécharger Cookie Out déposer Avant le premier chargement HTTP. déposer a un format de texte comme cookies.txt Netscape. Ce paramètre est utilisé pour la mise en miroir. Pour ce faire, wget envoie les mêmes cookies qui envoie votre navigateur lors de la connexion au serveur HTTP. Ceci est activé par ce paramètre - spécifiez simplement le chemin wget à cookies.txt. Différents navigateurs stockent des cookies dans différents dossiers:

Le paramètre - chargé de cookies fonctionnera avec le cookie au format Netscape, qui est pris en charge par wget.

Si vous ne pouvez pas utiliser le paramètre --load-cookies, vous avez toujours une sortie. Si votre navigateur prend en charge, écrivez le nom et la valeur de la cookie et spécifiez manuellement wget envoyer à ces cookies: wget -kookies \u003d off - tête de coeur "Cookie: i \u003d I. "

  • --Save-biscuits. déposer -Sauver le cookie déposer À la fin de la session. Les biscuits obsolètes ne sont pas sauvegardés.
  • --Gnore-Longueur - Certains serveurs HTTP (plus précisément, les scripts CGI) saisissent les en-têtes "longueur de contenu", qui indiquent le wget, qui n'est pas encore chargé. Et le wget charge un document plusieurs fois. Avec ce paramètre, wget ignorera les "longueurs de contenu".
  • --Header \u003d. en-tête supplémentaire -Détermine en-tête supplémentaire.envoyé au serveur HTTP. Il doit contenir: et des personnages après cela. Vous pouvez définir plusieurs en-têtes supplémentaires à l'aide de l'utilisation de --Header à plusieurs reprises.

wget --header \u003d "Accepter-charset: ISO-8859-2" --Header \u003d "Accepter-Langue: HR" http: // site / Spécification d'une chaîne vide de la valeur du titre, vous nettoyerez tous les utilisateurs définis par l'utilisateur à Cet en-tête.

  • --proxy-user \u003d utilisateur.et --proxy-passwd \u003d mot de passe -Définit le nom d'utilisateur utilisateur. et mot de passe de mot de passe pour autoriser le serveur proxy. Le type d'autorisation "BASIC" sera utilisé.
  • -Referer \u003d. uRL -Ajoute le titre `Référenaire: uRL«Dans la demande HTTP. Utilisé lorsque vous téléchargez des pages qui sont passées correctement uniquement si le serveur sait quelle page vous venez.
  • -S (- -Save-Headers) - Enregistrer les en-têtes envoyés par des serveurs HTTP.
  • -U. string d'agent (-User-agent \u003d string d'agent) -Identifier, comme chaîne d'agent Lorsque vous demandez un serveur HTTP. Le protocole HTTP vous permet de déterminer l'utilisation de l'en-tête de l'agent. Le wget par défaut est identifié comme wget / version.version. - Ceci est la version wget. Certains serveurs fournissent les informations requises uniquement pour les navigateurs identifiables comme "Mozilla" ou Microsoft "Internet Explorer". Ce paramètre vous permet de tromper ces serveurs.

Paramètres FTP.

  • -NR (-Dont-supprimer-lister) - Ne pas supprimer les fichiers temporaires .référencement.généré lors du téléchargement par FTP. Ces fichiers contiennent des informations sur les dossiers de serveurs FTP. L'échec vous aidera à déterminer rapidement la mise à jour du dossier du serveur (c'est-à-dire de déterminer que votre miroir est tel). Si vous ne supprimez pas .référencement.Je me souviens de votre sécurité! Par exemple, avec ce nom, vous pouvez créer un lien symbolique à / etc / passwd ou autre chose.
  • -g ON / OFF (-GLOB \u003d ON / OFF) - Inclut ou désactive l'utilisation de caractères spéciaux ( masque) via le protocole FTP. Est-ce possible *,?, [Et]. Par example:

wget ftp: //syt.com.msg

Par défaut, l'utilisation de caractères de masque est autorisée si l'URL contient de tels caractères. Vous pouvez également prendre l'URL dans des citations. Cela ne fonctionnera que sur les serveurs FTP UNIX (et l'émission de la sortie UNIX "LS").

  • - Passif-ftp - inclut le mode FTP passif lorsque la connexion est initiée par le client. Utilisé avec pare-feu.
  • --retr-symboles - avec le chargement récursif de fichiers de dossiers FTP qui indiquent des liens symboliques ne sont pas chargés. Ce paramètre le désactive. Le paramètre --retr-Symlinks est maintenant uniquement pour les fichiers, pas pour les dossiers. N'oubliez pas que ce paramètre ne fonctionne pas lors du chargement d'un seul fichier.

Paramètres de chargement récursif

  • -R (--Recursive) - Activer le chargement récursif.
  • -L. profondeur (-Level \u003d. profondeur) -Profondeur maximale de chargement récursif profondeur. Par défaut, sa valeur est 5.
  • -Delete-après - Supprimer chaque page (localement) après Ses téléchargements. Utilisé pour enregistrer de nouvelles versions des pages fréquemment demandées sur un proxy. Par example:

wget -r -nd -delete-après http: // site / ~ populaire / page /

Le paramètre -R inclut la charge par défaut, le paramètre -ND désactive la création de dossiers. Avec le paramètre spécifié --Delete-après être ignoré par le paramètre --Convert-links.

  • -K (-Convert-liens) - Une fois le téléchargement terminé, convertissez des liens vers le document pour afficher hors ligne. Cela concerne non seulement des références visibles à d'autres documents et des liens vers tous les fichiers locaux externes. Chaque lien varie d'une des deux manières:

Par exemple: Si le fichier téléchargé /ofoo/doc.html, le lien vers le fichier téléchargé / bar/img.gif ressemblera à la barre / img.gif. Cette méthode fonctionne s'il existe un ratio visible entre les dossiers d'un ou plusieurs fichiers.
Les liens vers des fichiers non chargés par WGET seront modifiés par les adresses absolues de ces fichiers sur un serveur distant.

Par exemple: Si le fichier téléchargé /foo/doc.html contient un lien vers /bar/img.gif (ou activé ../ bar / img.gif), le lien dans le fichier doc.html passe à http: / / host / bar / img.gif.

Pour cette raison, il est possible de visualisation autonome du site et des fichiers: si le fichier est téléchargé sur lequel il existe un lien, le lien l'indique, sinon, le lien indiquera son adresse sur Internet (si tel existe ). Lors de la conversion de liens relatifs sont utilisés, vous pouvez alors transférer le site téléchargé vers un autre dossier sans changer sa structure. Seulement une fois le téléchargement terminé, le WGET sait quels fichiers sont téléchargés. Par conséquent, lorsque le paramètre -k, la conversion ne se produira qu'à la fin du téléchargement.

  • -K (- -Backup-converti) - Convertir des liens en arrière - Supprimer l'extension. Orig. Modifie le comportement de l'option -N.
  • -M (-Mirror) - Activez les paramètres pour les sites de stockage de miroir. Ce paramètre est égal à plusieurs paramètres: -R -L -L INF -NR. Pour un stockage sans prétention des copies miroir des sites, vous pouvez utiliser ce paramètre.
  • -P (- --page-requisites) - Téléchargez tous les fichiers nécessaires à l'affichage de pages HTML. Par exemple: dessins, sons, styles en cascade.

Par défaut, ces fichiers ne sont pas chargés. Les paramètres -R et -L spécifiés ensemble peuvent aider, mais parce que Wget ne distingue pas les documents externes et internes, alors il n'y a aucune garantie que tous les besoins seront chargés.

Paramètres de téléchargement / autorisations récursives récursives

  • -UNE. acclist. (--J'accepte acclist) -Liste des noms de fichiers séparés par des virgules devant être téléchargées. Il est autorisé à définir les noms de fichiers sur le masque.
  • -R. rejlist. (--rejeter. rejlist) -Liste des noms de fichiers séparés par des virgules qui ne doivent pas être téléchargés. Il est autorisé à définir les noms de fichiers sur le masque.
  • -RÉ. liste de domaine (--Domains \u003d. liste de domaine) -Liste de domaines liste de domainequi sont autorisés à télécharger des fichiers. Virgules partagées. Ce paramètre ne pas Comprend -h.
  • - exercer des domaines. liste de domaine -Liste des domaines à partir duquel ne pas Autorisé à télécharger des fichiers
  • --Suivre-ftp - Suivez les liens FTP des pages HTML. Sinon, les liens vers des fichiers FTP sont ignorés.
  • --Collow-tags \u003d lister -WGET possède une table d'étiquette HTML intégrée dans laquelle elle recherche des liens vers d'autres fichiers. Vous pouvez spécifier des balises supplémentaires dans la liste des fractions lister Dans ce paramètre.
  • -G. lister (-Gnore-tags \u003d lister) -Retour - étiquettes suivantes. Pour ignorer les balises HTML avec téléchargement récursif, spécifiez-les dans une liste de fractions lister.
  • -H (--Span-hosts) - vous permet de visiter tous les serveurs pour avoir un lien.
  • -L (--Relative) - Suivez uniquement des liens relatifs. Dans ce paramètre, les fichiers d'autres serveurs ne seront certainement pas chargés.
  • -JE. lister (- influence-répertoires \u003d lister) -La liste des dossiers divisés par des virgules à partir desquelles il est autorisé à télécharger des fichiers. Éléments de liste lister
  • -X. lister (--Exclude-répertoires \u003d lister) -Liste des dossiers divisé par des virgules exclus pour le téléchargement (voir restriction de dossier). Éléments de liste lister Peut contenir des symboles de masques.
  • -Np (-NO-parent) - Ne dépassez pas au-dessus de l'adresse initiale pendant le chargement récursif.

Exemples d'utilisation

  • URL de téléchargement:

wget http: // site /

  • Téléchargez un fichier en augmentant le nombre de tentatives de 60 tentatives d'installation d'une nouvelle connexion (20):

wget --Tries \u003d 60 http: //syt/jpg/flyweb.jpg

  • Exécuter wget en arrière-plan et enregistrer les messages du journal enregistrer.. (Le symbole AMPERSAND à la fin indique l'interprète de commandement de poursuivre les travaux sans attendre l'achèvement du travail WGET. Pour faire les répétitions des répétitions infiniment - utilisez -tf.)

wget -t 45 -o journal http: //site/jpg/flyweb.jpg &

  • Télécharger Fichier FTP:
  • Si vous spécifiez l'adresse du dossier, alors que Wget chargera la liste de ce dossier (c'est-à-dire les fichiers et les sous-répertoires contenus dans celle-ci) et le contemplera au format HTML. Par example:

wget ftp: // site web / pub / gnu / liens index.html

  • Si vous avez un fichier avec l'URL que vous souhaitez télécharger, utilisez le paramètre -i (si vous spécifiez - au lieu du nom du fichier, l'URL sera lue à partir de l'entrée standard (STDIN)):

wget -i I.

  • Créez une copie de cinq niveaux du site Web GNU avec la structure des dossiers d'origine, avec une tentative de téléchargement, enregistrez des messages dans gnulog.:

wget -r http://www.gnu.org/ -o gnulog

  • Comme dans l'exemple ci-dessus, mais avec la conversion des liens dans les fichiers HTML vers le local, pour la visualisation ultérieure autonome:

wget --convert-links -r http://www.gnu.org/ -o gnulog

  • Téléchargez une page HTML et tous les fichiers requis pour afficher ce dernier (par exemple, des dessins, des styles en cascade, etc.). Convertissez également tous les liens vers ces fichiers:

wget -p --Convert-liens http://www.server.com/dir/page.html

  • La page HTML sera enregistrée dans www.server.com/dir/page.html et des dessins, des styles en cascade et ainsi de suite sera enregistré dans le dossier www.server.com/En plus du cas où les fichiers sont téléchargés à partir d'autres serveurs. Comme dans l'exemple ci-dessus, mais sans dossier www.server.com/. Également tout Les fichiers seront enregistrés dans les sous-dossiers télécharger /.

wget -p --convert-links -nh -nd -pdownload http://www.server.com/dir/page.html

  • Load Index.html avec www.lycos.com, affichant des en-têtes serveur:

wget -s http://www.lycos.com/

  • Enregistrez des en-têtes dans un fichier pour une utilisation ultérieure.

wget -s http://www.lycos.com/more index.html

  • Téléchargez deux niveaux supérieurs wuarchive.wustom.edu dans / TMP..

wget -r -l2 -p / tmp ftp://wuarchive.wustom.edu/

  • Téléchargez des fichiers dossiers GIF sur le serveur HTTP. La commande wget http://www.server.com/dir/* .gif ne fonctionnera pas, car les caractères de camouflage ne sont pas pris en charge lors du chargement via le protocole HTTP. Utiliser:

wget -r -l1 --No-parent -a.gif http://www.server.com/dir/

R -L1 comprend une charge récursive avec une profondeur maximale 1. --No-parent désactive les liens vers le dossier parent, ayant un niveau supérieur, -A.gif vous permet de télécharger uniquement des fichiers avec extension.gif. -A `` * .gif "" va également fonctionner.

  • Supposons que lors du téléchargement récursif, vous devez désactiver / redémarrer l'ordinateur. Pour ne pas télécharger les fichiers existants, utilisez:

wget -nc -r http://www.gnu.org/

  • Si vous souhaitez spécifier le nom d'utilisateur et le mot de passe pour un serveur HTTP ou FTP, utilisez la syntaxe URL appropriée:

[Email protégé]/.Emacs"\u003eftp://hniksic: [Email protégé]/.Emacs.

  • Voulez-vous que des documents téléchargeables accéder à la sortie standard et non dans les fichiers?
  • Si vous souhaitez organiser un convoyeur et télécharger tous les sites, des liens vers lesquels sont indiqués sur une page.

wget -o - http://cool.list.com/ | Wget --force-html -i -

  • Pour stocker le miroir de la page (ou les dossiers FTP), utilisez-le-mirror (-M), qui remplace -r -l Inf -n. Vous pouvez ajouter Wget à CronTab avec une demande de contrôle de mise à jour tous les dimanches:

crontab 0 0 * * 0 wget --mirror http://www.gnu.org/ -o / home / me / weeklog

  • Vous voulez aussi que les liens soient convertis en local. Mais après avoir lu ce manuel, vous savez que la comparaison de temps ne fonctionnera pas. Spécifiez le wget pour laisser des copies de sauvegarde des fichiers HTML avant la conversion. Équipe:

wget --mirror --Convert-liens --Backup-convertis http://www.gnu.org/ -o / home / me / semaine de guerre

  • Et si la visualisation locale de fichiers HTML ne fonctionne pas avec une extension, différente de.html, par exemple index.cgi.Ensuite, vous devez transférer la commande pour renommer tous ces fichiers (type de contenu \u003d texte / html) dans nom.html.

wget --mirror --convert-liens --Backup-converti - HTML-Extension -O / Accueil / ME / MEASE HTTP://www.gnu.org/

  • Avec de brèves analogues des équipes:

wget -m --k -k -e http://www.gnu.org/ -o / home / me / weeklog



Avez-vous aimé l'article? Partagez-le