copier les jpg d'un site ? - Débats - Linux et OS Alternatifs
Marsh Posté le 27-08-2002 à 02:46:55
je viens de faire une recherche et j'ai trouvé wget. J'ai rapidement parcouru le man c'est assez simple, par contre je vois pas trop quoi rentrer comme option pour ne prendre que certains nom de jpg (style *1024.jpg). Merci
Marsh Posté le 27-08-2002 à 08:19:34
ben justement cela devrait marcher comme cela
Marsh Posté le 27-08-2002 à 13:42:33
je ne vois pas comment utiliser nt pour ça ?
par contre avec wget après une étude plus approfondie du man voilà la commande si ça peut aider qqun un jour:
wget -np -r -A.jpg http://www.le_site.com/
Marsh Posté le 29-08-2002 à 03:13:29
l'aspirateur de site ultime sous nux c'est httrack
l'adresse c'est http://www.httrack.com
tu peux paramètrer la capture pour prendre uniquement les jpg
Marsh Posté le 29-08-2002 à 04:05:27
y a pavuk qu est pas mal aussi
http://www.idata.sk/~ondrej/pavuk/
Marsh Posté le 27-08-2002 à 02:38:17
Connaissez vous une commande pour copier récusirvement tout les jpg d'un repertoire internet ? Ou alors connaissez vous un aspirateur ou autre ? En fait je voudrai pomper tout les wallpapers d'un site sans me taper tout à la main
merci