Crypter le fichier robots.txt ?

Crypter le fichier robots.txt ? - Programmation

Marsh Posté le 16-02-2002 à 10:46:10    

Voici les données du problèmes :
-je veux mettre un fichier robots.txt pour éviter que certaines parties de mon site se retrouve en libre accés dans google ou autre.
 
-seulement il sera assez facile à quelqu'un d'avoir accés à ce fichier, et donc de connaitre l'adresse des parties  que je tiens à protéger.
 
Dons ma question est simple : faut il que je crypte le robots.txt (si c'est possible) et que cela reste utilisable par les robots. Si oui, avec quels utilitaires ?
 
Merci d'avance  :)

Reply

Marsh Posté le 16-02-2002 à 10:46:10   

Reply

Marsh Posté le 16-02-2002 à 10:51:11    

Je suis pas sûr que google respecte les robots.txt

Reply

Marsh Posté le 16-02-2002 à 13:51:20    

S'il était possible de chiffrer un robots.txt de façon qu'il reste tout de même lisible pour tous les robots, alors je ne voit pas vraiment ce qui pourrait empêcher un utilisateur lambda de le lire également...

Reply

Marsh Posté le 16-02-2002 à 15:11:11    

Ben je ne sais pas ! On peut bien crypter du html et que ça reste interprétable pour les browsers ..

Reply

Marsh Posté le 16-02-2002 à 15:49:54    

Ah bon ? Tu peux crypter du HTML ??? :ouch:  
 
Sinon pour ton robot.txt, un simple CHMOD devrait suffire non ? je sais pas comment sont traitées les requètes des robots...

Reply

Marsh Posté le 16-02-2002 à 15:58:00    

Les droits unix n'ont rien à voir là dedans : le robots.txt est récupéré via le serveur http, comme n'importe quelle page. Les droits unix s'appliquent au serveur web, point.

Reply

Marsh Posté le 17-02-2002 à 00:14:12    

Indy -->http://www.protecthtml.com/
 
'mais ce n'est pas le seul ...

Reply

Marsh Posté le 17-02-2002 à 00:40:46    

et du côté du .htaccess ?  
tu peux empecher l'affichage de certains fichiers / répertoires...
 
un CHMOD permet aussi de nécessiter une autorisation pour afficher le fichier (autorisations groupe et user...)

Reply

Marsh Posté le 17-02-2002 à 00:41:39    

B-52 a écrit a écrit :

Indy -->http://www.protecthtml.com/
 
'mais ce n'est pas le seul ...  




 
Je me disais, c trop beau :sarcastic: Ca s'appuie sur du JavaScript si j'ai bien compris...  :( Pas top comme solution.

Reply

Marsh Posté le 17-02-2002 à 00:45:19    

B-52 a écrit a écrit :

>http://www.protecthtml.com/
'mais ce n'est pas le seul ...


et comme tous les autres, c'est de la connerie et ça ne dissuadera que le gars qui n'y connait rien.
 
google utilise bien robots.txt : http://www.google.com/webmasters/faq.html et ça donne du coup des possibilités de visiter les parties privées : http://www.theregister.co.uk/conte [...] 11174.html
 
précision, google et les autres moteurs n'indexent que les pages qu'ils trouvent en suivant tous les liens sur les pages qu'il visitent. donc si tu veux protéger un site privé, il suffit de ne jamais mettre de lien vers sur le net (et donc pas non plus dans robots.txt), et personne n'y aura jamais accès.
 
quant à crypter robots.txt, c'est impossible, ce serait également décryptable et donc accessible.

Reply

Marsh Posté le 17-02-2002 à 00:45:19   

Reply

Marsh Posté le 17-02-2002 à 00:54:55    

http://www.pikas.net/robots.txt <--- tu peux pas l'afficher... par contre je doute aussi que Google parvienne à l'utiliser  :D  
 
Bête, méchant et inutile...
 
par ailleurs je vois pas trop l'utilité d'empecher de visualiser les chemins qui figurent dans le robots.txt, sachant qu'on y aura accès depuis tout moteur de recherche... quant aux chemins interdits, il suffit de spécifier des "noindex,nofollow" dans les pages, je pense que ça suffit ?

Reply

Marsh Posté le 17-02-2002 à 01:02:25    

* les chemins interdits il suffit de ne PAS METTRE DE LIEN VERS, BORDEL ! ou au moins de mettre un html par défaut dans le répertoire, puis utiliser un login / pass pour les fichiers ! ça ne sert à rien de spécifier noindex car un gars qui veut cracker la page testera sûrement avec un script la présence de robots.txt.
 
* robots.txt sert à empêcher d'indexer des trucs, ie sur le site de kde il y a tout l'arbre des sources. si tous les moteurs de recherche indexaient toutes les sources, ça boufferait un MAX de bande passante (x moteurs * y indexations par mois * z fichiers = beaucoup trop).

Reply

Marsh Posté le 17-02-2002 à 10:03:45    

en somme, si tu veux protéger, il faut qu'il n'y ai qu'une page à protéger, sinon dès que tu calles un hypertexte dans une zone à défendre , c'est la mer.. pas vivable comme solution ..

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed