telecharger 2500 fichiers - Logiciels - Windows & Software
Marsh Posté le 01-10-2002 à 06:20:26
moua a écrit a écrit : (...) |
si t'essaie de choper les images de ppc suite a un certain post a moi spa cool (la bande passante pousse pas dans les pc).
alors je vais te répondre, paske je sais, mais plus tard, je vais bien voir si Sly empeche l'indexation du repertoire concerne de ppc ... ou alors tu montre l'url ...
izz
Marsh Posté le 01-10-2002 à 07:14:17
moua a écrit a écrit : hein ? de quoi tu parle ? On peut meme plus d/l des images de cul ? |
oki desole
bon un truc qui fonctionne dans ce cas : tu enregistre la page avec les liens avec ton brouteur
il va te pondre une page avec 2500 liens, dudur pour flashget le pauvre on le comprend
tu edite le code source de ta page, en placeant une balise de commentaire au tour de tous les liens suaf les 500 premiers (pifometre)...
tu recharge la page, tu clic droit plus "tout enregistrer avec flashget" la il va bien vouloir
et tu te retappe la manip juska ce que tu ai tout ...
voila, pas mieux pour l'instant ...
Marsh Posté le 01-10-2002 à 08:02:51
Tu peux utiliser un soft type "aspirateur" ...
Celui que j'utilisais (Teleport Pro), permet sans probleme de charger des milliers de fichiers ...
Au lieu de lui demander une copie exacte du site, tu lui demandes a partir de l'URL http://site.com/ avec une profondeur de "1" de recuperer tous les .ZIP, puis avant de lancer le telechargement dans les options tu affines a "fichier*.zip".
A+
Marsh Posté le 01-10-2002 à 08:48:52
moua a écrit a écrit : Quel logiciel me conseillez vous pour telecharger 2500 fichier automatiquement ? Ils sont comme cela : http://site.com/fichier1.zip http://site.com/fichier2.zip ... http://site.com/fichier2500.zip J'ai essayé getright (et un generateur de .grx, je n'allais pas tout faire a la main ) mais il rame a fond, il ne sais pas bien gerer tout ça... j'ai pensé a leechftp mais je ne connais pas de generateur de fichier de download pour ce logiciel. Quelqun a un bon logiciel pour ça ? Ce sont de tout petits fichiers (moins d'un ko chaqun), mais il y en a beaucoup |
http://www.httrack.com/index.php
tu dis : "pomper le lien www.site.com"
et ds les filtre du exclus TOUT sauf *.zip
et vala
Marsh Posté le 01-10-2002 à 17:25:23
Non ce ne sont pas des liens
je veut fichier1 fichier2 fichier2000...
mais il n'y a aucun lien vers ces fichiers (je sais qu'ils existent).
En plus IE ouvre automatiquement ces .doc... enfin bref, il faudrais un download manager mailleur que getright, ou un generateur de liste a telecharger autre que pour getright.
Marsh Posté le 01-10-2002 à 17:26:49
ben leechftp tu vas dans le rep, pis tu sélectionnes tout et tu le mets dans la queue, nan ?
Marsh Posté le 01-10-2002 à 17:28:27
CK Ze CaRiBoO a écrit a écrit : ben leechftp tu vas dans le rep, pis tu sélectionnes tout et tu le mets dans la queue, nan ? |
mais c'est pas un FTP... et il n'y a pas de lien vers ces fichiers, et je me vois mal faire 2000 copier/coller + modification d'un chiffre a la main
Marsh Posté le 01-10-2002 à 17:30:39
moua a écrit a écrit : mais c'est pas un FTP... et il n'y a pas de lien vers ces fichiers, et je me vois mal faire 2000 copier/coller + modification d'un chiffre a la main |
alors il te reste que l'aspirateur de site
Marsh Posté le 01-10-2002 à 17:49:13
CK Ze CaRiBoO a écrit a écrit : alors il te reste que l'aspirateur de site |
heuu je me repete :
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)
Marsh Posté le 01-10-2002 à 17:49:58
et ben tu fais toi meme la page avec les lien, non ?
Marsh Posté le 01-10-2002 à 17:58:15
moua a écrit a écrit : heuu je me repete : les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent) |
eh ben si l'aspirateur il aspirera qd ^même, tu mets un filtre *.zip et pis vala
Marsh Posté le 01-10-2002 à 18:04:25
kapere est de loin le programme le plus adapté à ce que tu souhaites faire a+
Marsh Posté le 01-10-2002 à 18:15:26
Mhaggar a écrit a écrit : et ben tu fais toi meme la page avec les lien, non ? |
Heuu... c'est pas que j'ai la flemme mais faire 2500 liens a la main ou presque...
master_jul : THX vais essayer
Marsh Posté le 01-10-2002 à 19:17:43
moua a écrit a écrit : Heuu... c'est pas que j'ai la flemme mais faire 2500 liens a la main ou presque... master_jul : THX vais essayer |
donne l'url
Marsh Posté le 01-10-2002 à 19:49:56
Latinus a écrit a écrit : donne l'url |
c'est private
mais en gros c'est
site.com/fichier1.zip
site.com/fichier2.zip
...
site.com/fichier3.zip
master_jul : on ne peut pas avec ton prog
Marsh Posté le 01-10-2002 à 19:52:17
bha dans le cas qui se présente, à part avec un accès en ftp... y'a pas d'autre solution que de faire 1 par 1
Marsh Posté le 01-10-2002 à 19:52:56
Latinus a écrit a écrit : donne l'url |
mouais, file l'url
je te genere une page qui te fais les noms avec php c'est trop simple ...
edit : si prive > PM, je peux pas te generer une page en html avec l'url en variable
apres je te fais des blocs de xxx (200 ?) liens par page, et tu clic droit "telecharger tt avec flashget"
izz
Marsh Posté le 01-10-2002 à 19:53:28
izz a écrit a écrit : mouais, file l'url je te genere une page qui te fais les noms avec php c'est trop simple ... |
bha voilà, mais c privé
Marsh Posté le 01-10-2002 à 19:55:31
Latinus a écrit a écrit : bha voilà, mais c privé |
cf edit ci dessus
si tu as un serveur apache avec php a dispo, je peux te filer le code et tu genere toi meme ...
Marsh Posté le 01-10-2002 à 20:34:36
izz a écrit a écrit : cf edit ci dessus si tu as un serveur apache avec php a dispo, je peux te filer le code et tu genere toi meme ... |
J'ai
ça serais sympa
A part ça... je peut toujours remplacer tout les "site.com/ficher" par la veritable url avec le notepad
Marsh Posté le 01-10-2002 à 21:12:55
tfé pa ièche : installe un aspirateur de sites genre teleport pro
komen dire : c tout simplement fait pour
Marsh Posté le 01-10-2002 à 21:21:48
Pnar a écrit a écrit : tfé pa ièche : installe un aspirateur de sites genre teleport pro komen dire : c tout simplement fait pour |
heuu je repete :
les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent)
izz : tu peut copier le code du php içi ?
Marsh Posté le 01-10-2002 à 21:40:42
moua a écrit a écrit : heuu je repete : les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent) |
ki a dit que les liens étaient nécessaires ? du moment qu'ils sont accessibles directement
Marsh Posté le 01-10-2002 à 21:58:36
moua a écrit a écrit : heuu je repete : les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent) izz : tu peut copier le code du php içi ? |
si le repertoire ou ils sont est indexable si ... si tu connais (moi pas) la commande pour demander au serveur la liste des fichiers dans le dossier c'est possible ...
ainsi il va te generer une page html comme celle qu'il te sort quand tu demande une page ou il trouve pas d'index.htm/html/php etc ...
bon, tu as po confiance en moi (je prefere ma copine a des video au passage ) je peux bien sur te balancer le code, mais tu veux le code source en PHP (tu dois avoir un serveur php sous la main !) ou le resultat en html (soit 2500 lignes de code je suis pas sur que je puisse poster auant) ?
Marsh Posté le 01-10-2002 à 22:05:33
Ya bien wget sous linux
# wget http://site.com/*
La commande doit ressembler à ça. Je crois pas que ce soft soit porté sous Windows
Marsh Posté le 01-10-2002 à 22:07:49
Bon j'ai une solution.
Il faut tout d'abord que tu te crées un fichier texte (par exemple download.txt) contenant chaque url que tu veux télécharger:
http://site.com/fichier1.zip
http://site.com/fichier2.zip
...
http://site.com/fichier2500.zip
Avec un tableur, tu peux le generer sans problèmes.
Ensuite tu utilises Windows Commander http://www.ghisler.com qui est un super gestionnaire de fichiers (faut pas se fier à l'interface, il est très puissant).
Tu vas dans le menu "Reseau" puis tu selectionnes "FTP : télécharger depuis la liste" (ca marche egalement pour les url en HTTP, j'ai essaye), et tu lui indiques ton fichier texte.
Ensuite il va tous les télécharger un par un.
Marsh Posté le 01-10-2002 à 22:08:20
localhost a écrit a écrit : Ya bien wget sous linux # wget http://site.com/* La commande doit ressembler à ça. Je crois pas que ce soft soit porté sous Windows |
y'a certainement mais le site est mega prive apparement
c'est p'tet des videos d'un membre du forum
edit = ska j'voulai dire en maitant po bien exprime c'est kon peut po savoir si le serveur est sous nux ou pas vu que Bush a cache l'url dans un micro onde de la maison blanche en croyant que c'etait un coffre (code 00:00)
Marsh Posté le 01-10-2002 à 22:09:21
izz a écrit a écrit : y'a certainement mais le site est mega prive apparement c'est p'tet des videos d'un membre du forum |
trompé de quote
Marsh Posté le 01-10-2002 à 22:10:30
faxone a écrit a écrit : Bon j'ai une solution. Il faut tout d'abord que tu te crées un fichier texte (par exemple download.txt) contenant chaque url que tu veux télécharger: http://site.com/fichier1.zip http://site.com/fichier2.zip ... http://site.com/fichier2500.zip Avec un tableur, tu peux le generer sans problèmes. Ensuite tu utilises Windows Commander http://www.ghisler.com qui est un super gestionnaire de fichiers (faut pas se fier à l'interface, il est très puissant). Tu vas dans le menu "Reseau" puis tu selectionnes "FTP : télécharger depuis la liste" (ca marche egalement pour les url en HTTP, j'ai essaye), et tu lui indiques ton fichier texte. Ensuite il va tous les télécharger un par un. |
une fois qu'il a le .txt c'est pas un probleme, au pire avec flashget (si deja instlle sur sa becane, possible car tres bon d/ldeur) il peut chopper des blocs de 200 ou 500 liens ...
Marsh Posté le 01-10-2002 à 22:19:45
izz a écrit a écrit : y'a certainement mais le site est mega prive apparement c'est p'tet des videos d'un membre du forum edit = ska j'voulai dire en maitant po bien exprime c'est kon peut po savoir si le serveur est sous nux ou pas vu que Bush a cache l'url dans un micro onde de la maison blanche en croyant que c'etait un coffre (code 00:00) |
Je te parle pas du serveur. Peu importe.
wget est un utilitaire sur ton système linux. Si moua était sous linux (peut-être qui l'est), il peut utiliser wget.
Marsh Posté le 01-10-2002 à 22:27:40
localhost a écrit a écrit : Je te parle pas du serveur. Peu importe. wget est un utilitaire sur ton système linux. Si moua était sous linux (peut-être qui l'est), il peut utiliser wget. |
j'ai appris keke chose
Marsh Posté le 01-10-2002 à 22:32:30
izz : le fichier php, je l'executerais ensuite merci
au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private
localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux.
Marsh Posté le 01-10-2002 à 22:37:55
moua a écrit a écrit : izz : le fichier php, je l'executerais ensuite merci au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux. |
mouiais pourquoi tu as efface ton post "On peut meme plus d/l des images de cul ? ", pourquoi tu dis maintenant "au passage ce ne sont pas des vidéos (ni meme des images)" ?
t'es pas obligé de nous prendre pour des c... ou alors il faut pas que je m'en appercoive ...
et pis efface pas tes posts quotés par les autres
Marsh Posté le 01-10-2002 à 22:40:39
moua a écrit a écrit : heuu je repete : les fichiers (par exemple toto.com/texte.doc) n'ont AUCUN lien qui pointent vers eux... donc l'aspirateur de site ne saurra pas qu'ils existent... (mais moi je sais qu'ils existent) |
avec Kapere (cité plus haut, www.kapere.com ) t'as un truc "batch download" où tu peux faire ce que tu veux, et le soft gère sans problèmes une liste de plusieurs dizaines de milliers de fichiers
Marsh Posté le 01-10-2002 à 22:40:52
bon je vais tout de meme te filer la reponse
tu copie colle ce texte dans un fichier que tu nomme index.php
Code :
|
comme tu peux voir c'est pas bien dur ... teste ok
Marsh Posté le 01-10-2002 à 23:32:18
moua a écrit a écrit : izz : le fichier php, je l'executerais ensuite merci au passage ce ne sont pas des vidéos (ni meme des images), mais c'est private localhost : j'utilise wget sous windows hein... il existe une version win32, mais je peut aussi utiliser cygwin ou rebooter sous linux. |
Ou est le problème alors ?
Marsh Posté le 01-10-2002 à 23:33:48
antp : merci j'avais pas vu
izz : thx je test ça desuite, sinon j'ai effacé mon post pour éviter qu'il soit mal interpreté
je test desuite ton php
Marsh Posté le 01-10-2002 à 23:35:36
localhost a écrit a écrit : Ou est le problème alors ? |
wget ne permet pas de generer une page html/fichier_texte avec tout les liens, c'est la premiere étape
Marsh Posté le 01-10-2002 à 05:58:37
Quel logiciel me conseillez vous pour telecharger 2500 fichier automatiquement ?
Ils sont comme cela :
http://site.com/fichier1.zip
http://site.com/fichier2.zip
...
http://site.com/fichier2500.zip
J'ai essayé getright (et un generateur de .grx, je n'allais pas tout faire a la main ) mais il rame a fond, il ne sais pas bien gerer tout ça...
j'ai pensé a leechftp mais je ne connais pas de generateur de fichier de download pour ce logiciel.
Quelqun a un bon logiciel pour ça ?
Ce sont de tout petits fichiers (moins d'un ko chaqun),
mais il y en a beaucoup