Télécharger un site ? - Logiciels - Windows & Software
Marsh Posté le 28-03-2021 à 21:20:07
La rémunération pour copie privée ne couvre pas le contenu des sites web à ma connaissance.
Je ne comprends pas ton soucis avec WinHTTrack, il ne suit pas forcément une arborescence HTML, mais les liens et objets référencés dans les pages.
En revanche, il faut probablement travailler la configuration pour que ça fonctionne avec ton site.
Et partager le nom du site pourrait aussi aider à t'aider.
Marsh Posté le 29-03-2021 à 10:05:57
glassman a écrit : La rémunération pour copie privée ne couvre pas le contenu des sites web à ma connaissance. |
Cette phrase n'a pas de sens.
On paye cette rémunération sur à l'achat des supports de stockage (cd/dvd/disques/...).
https://www.sacd.fr/comprendre-la-c [...] %20public.
C'est juste un moyen de compenser la perte des auteurs lors de la diffusion sur support numérique.
Ça ne change en rien la règlementation sur le droit d'auteur, ni ce qui est périphérique : contrefaçon, piratage, etc ...
L'exception de la copie privée au droit d'auteur est juste la possibilité de sauvegarder pour son seul usage privé une oeuvre (image, vidéo, etc...).
Bien sur, tant que ça ne va pas à l'encontre d'éventuelles protections l'en empêchant explicitement (contourner une protection est du piratage).
glassman a écrit : Je ne comprends pas ton soucis avec WinHTTrack, il ne suit pas forcément une arborescence HTML, mais les liens et objets référencés dans les pages. |
En effet, les ressources utilisées par le site peuvent venir d'url différentes du site lui même.
Il faut configurer HTTrack pour l'autoriser à chercher "plus profond" dans l'arborescence, mais aussi plus loin dans les url externes (maximum mirroring depth et maximum external depth dans l'onglet limit des paramètres du projet)
Note : ça suppose que l'adresse des images est dans le code de la page.
Après, le résultat sera celui du site et non l'organisation des répertoires que tu veux toi.
A toi de trier et filtrer les données récupérées.
Sachant que si tu ne veux que les images, tu peux filtrer sur leur extension.
Marsh Posté le 29-03-2021 à 11:22:10
nex84 a écrit : C'est juste un moyen de compenser la perte des auteurs lors de la diffusion sur support numérique. L'exception de la copie privée au droit d'auteur est juste la possibilité de sauvegarder pour son seul usage privé une oeuvre (image, vidéo, etc...). |
Je parlais de l'auteur du sujet qui faisait référence à la rémunération pour copie privée perçue sur le stockage informatique/téléphone/médias amovibles effectivement. Et le fait que le produit de cette rémunération n'alimente pas les auteurs de sites web.
Ça ne remet pas en cause le principe de l'exception de copie privée.
Marsh Posté le 10-06-2021 à 23:44:04
Bonjour/bonsoir/bonne nuit/bon matin.
Je n'ai pas oublié ce sujet.
Et j'ai trouvé au moins un truc sur un des sites que je voulais récupérer.
Dans WinHTTrack il faut mettre le site que l'on veux récupérer.
Mais il faut mettre "http://www.site.com" et non "www.site.com"
C'est con mais j'ai passé plusieurs jours dessus à pas comprendre pourquoi et tester les options avant de trouver ça...
Marsh Posté le 28-03-2021 à 16:31:11
Bonjour.
AVERTISSEMENT
Je ne cherche pas un site pour télécharger des films et autres trucs pas/peu légaux en DDL.
Je ne cherche pas un logiciel pour faire la même chose en P2P.
Je cherche à enregistrer pour mon propre usage, sans rediffusion des éléments d'un site tel que cela est autorisé par le code de la propriété intellectuelle et pour lequel nous paillons tous un dédommagement appelé "rémunération pour la copie privée" sur chaque support vierge, téléphone, ordinateur (et bientôt HDD nu et matériel d'occasion)
Je souhaite télécharger un site pour pouvoir réutiliser les images comme fond d'écran.
J'ai bien testé avec WinHTTrack mais sans succès.
Car le site est en PHP/ASP et n'a pas de structure de fichiers html que HTTrack peut télécharger.
J'ai à chaque fois un message d'erreur.
Soit il me dit que la copie courante est vide soit il me dit qu'il ne trouve pas de fichier index.html
Et quand je regarde le code du site, chaque image qui m'intéresse est dans des répertoires différents (sans incrémentation) et avec des nom "aléatoires".
Par exemple la première page (à l'adresse site.com) donne une image avec pour adresse de l'image :
site.com/image/ac2/t3r/duf2hnf4jvi466goi.jpg
La seconde page (à l'adresse site.com/2/) donne une autre image avec pour adresse de l'image :
site.com/image/tgb/4erf/eicn6di53r4dnhjzaio4J6J7OI364.jpg
Je ne peux donc pas me faire une page à la main qui pointerait vers
site.com/image/1.jpg
site.com/image/2.jpg
site.com/image/3.jpg
...
Pour pouvoir tout charger et enregistrer en local
J'ai tenté de me connecter au site en ftp pour pouvoir directement télécharger le répertoire image mais ça ne marche pas.
Connaissez-vous un autre logiciel ou un site offrant ce genre de service ?
Au "pire", l'adresse de l'image est toujours dans la même div.
Il est peut-être possible de juste récupérer le contenu de la div pour l'enregistrer dans un fichier ?
Je ne pense pas que cela soit possible en batch.
Mais en php ?
Ensuite je reprend le contenu du fichier pour me faire ma propre page html pour télécharger les fonds d'écran.
Message édité par LimDul le 28-03-2021 à 16:31:24
---------------
Liberkey, colection d'utilitaires sur clef USB / Silverstone DS380 - Mini tour ITX 8 baies Hot-swap 3.5"