Recherche un petit script pour Sauvegarder les images d'un site - Codes et scripts - Linux et OS Alternatifs
Marsh Posté le 28-08-2006 à 15:56:15
hxxp://
wget devrait te permettre de faire ce que tu veux
Marsh Posté le 28-08-2006 à 17:58:05
httrack avec les options idoines doit pouvoir le faire (en admettant que les images sont directement accessibles)
Marsh Posté le 28-08-2006 à 18:35:30
leecher c'est mal
Marsh Posté le 28-08-2006 à 22:12:13
black_lord a écrit : leecher c'est mal |
En même temps s'il fait ça chez lui et ne conduit pas derrière
Sinon l'idée de la boucle "for" est très bonne si les noms de fichier se suivent
Marsh Posté le 29-08-2006 à 15:40:49
voila je t'ai tout fait
inf=001 |
tu remplaces juste les 2 premieres lignes par la valeur de debut et de fin de la série et l'url evidement en gardant bien le "\" qui delimente la fin de la variable
Marsh Posté le 28-08-2006 à 15:25:49
Salut à tous,
je cherche une personne qui puisse m'aider à faire un petit script linux pour sauvegarder sur mon HD un ensemble d'images présentes sur un site web dont les url sont de la forme:
hxxp://toto.free.fr/img/image001.jpg
puis
hxxp://toto.free.fr/img/image002.jpg
.
.
.
merci d'avance