[référencement site] fichier spiders plein de mots cléfs ?

fichier spiders plein de mots cléfs ? [référencement site] - Divers - Programmation

Marsh Posté le 11-05-2004 à 22:19:45    

Hello,
 
Un mec m'a dit qu'il falait créer des fichiers "spiders" pleins de mots cléfs pour que les moteurs de recherche puissent bien référencer le site... juste ou pas juste ?
 
a+
 
darx


---------------
Des trucs - flickr - Instagram
Reply

Marsh Posté le 11-05-2004 à 22:19:45   

Reply

Marsh Posté le 11-08-2004 à 22:46:34    

+1

Reply

Marsh Posté le 11-08-2004 à 22:50:36    

darxmurf a écrit :

Hello,
 
Un mec m'a dit qu'il falait créer des fichiers "spiders" pleins de mots cléfs pour que les moteurs de recherche puissent bien référencer le site... juste ou pas juste ?
 
a+
 
darx


je crois que les moteurs actuels (google entre autres) te plombent ton référencement si ils détectent un truc de ce genre. Pas sur que ce soit un bon calcul


Message édité par Mjules le 11-08-2004 à 22:50:47

---------------
Celui qui pose une question est idiot 5 minutes. Celui qui n'en pose pas le reste toute sa vie. |  Membre du grand complot pharmaceutico-médico-scientifico-judéo-maçonnique.
Reply

Marsh Posté le 11-08-2004 à 23:26:09    

ok merci :jap:
 
et sans fichier spyder, juste dans les meta, c bon, ca suffit, il faut que je mette mes mot clé et c bon?

Reply

Marsh Posté le 11-08-2004 à 23:33:59    

nfshp2 a écrit :

ok merci :jap:
 
et sans fichier spyder, juste dans les meta, c bon, ca suffit, il faut que je mette mes mot clé et c bon?


 
Je crois que google ne donne pas une trop grande importance aux metas.
 
Un bon site sur le référencement : http://www.webrankinfo.com/


Message édité par pascal_ le 11-08-2004 à 23:34:10
Reply

Marsh Posté le 11-08-2004 à 23:36:32    

pascal_ a écrit :

Je crois que google ne donne pas une trop grande importance aux metas.
 
Un bon site sur le référencement : http://www.webrankinfo.com/


 
ok merci  
 
mais c payant  :cry:  :sweat:

Reply

Marsh Posté le 11-08-2004 à 23:55:25    

Moi j'avais fait un truc qui marchais pas trop mal.
 
En fait, google notamment, et la plupart des autres moteurs de recherche se foutent pas mal des métas. Ils n'y accordent pas plus d'importance que le texte, et privilégient le nombre de liens qui pointent sur la page (après tout, plus une page est appelée par d'autres, et plus elle a de chances d'être vraiment intéressante)
 
L'astuce consistait en faire, depuis mon code ASP (ou PHP c'est pareil) de détecter le bot. Une rapide analyse des logs permet de retrouver le nom sous lequel il se présente.
 
Mon site alors, au lien d'afficher s'implement la page, répondait une page modifiée, contenant énormément plus de texte, et surtout, le titre du sujet traîté répété un peu partout (entre chaque paragraphes par exemple).
Parmis ces infos, je mettais des liens vers à peut près toutes mes pages, histoire d'augmenter artificiellement le nombre de liens pointant vers les différentes pages.
 
Ainsi, le bot ne détecte pas de supercherie, puisqu'il trouve une page "normale", sauf qu'elle est gavée de texte. Hors il faut bien garder en mémoire que plus il y a de texte dans une page, et plus le nombre d'occurences des mot-clés recherchés sera important, donc plus le ranking sera bon.
 
Mais je doute qu'on puisse descemment faire mieu.
 
A noter que la fonction "page en cache" de google va récupérer la page telle qu'il l'a vu. Il faut donc faire gaffe à ce que cette dernière reste tout de même lisible pour l'utilisateur, car certaines personnes utilisent ce système plutôt que cliquer directement sur le lien. C'est d'autant plus vrai quand le site en question héberge du contenu succeptible d'être sur un site perso, qui généralement ne sont pas très rapides.

Reply

Marsh Posté le 12-08-2004 à 10:40:09    

nfshp2 a écrit :

ok merci  
 
mais c payant  :cry:  :sweat:


 
c'est payant  :??: T'as du cliquer sur la pub pour le séminaire non ? Tout le contenu du site qui donne des astuces pour le référencement est gratuit....
 
 
Arjuna >> normalement c'est interdit comme méthode. Tu n'as pas le droit de changer ton contenu quand tu détectes le bot de google, tu peux t'y faire bannir....


Message édité par pascal_ le 12-08-2004 à 10:40:20
Reply

Marsh Posté le 12-08-2004 à 11:17:06    

Non, c'est au contraire recommandé par Google (sauf que j'ai détourné la chose)
 
En effet, si ta HP est un flash clickable, Google ne sait pas rentrer. Il faut donc détecter le bot et lui donner un lien à manger.
 
C'est écrit en toutes lettres dans les recommandations de référencement sur le site de Google. En tout cas c'était le cas à l'époque, et c'est comme ça que j'ai eu l'idée.

Reply

Marsh Posté le 12-08-2004 à 17:25:29    

pascal_ a écrit :

c'est payant  :??: T'as du cliquer sur la pub pour le séminaire non ? Tout le contenu du site qui donne des astuces pour le référencement est gratuit....
 
 
Arjuna >> normalement c'est interdit comme méthode. Tu n'as pas le droit de changer ton contenu quand tu détectes le bot de google, tu peux t'y faire bannir....


 
euh nan le site est gratos, mais c pour se referencer que c'est payant  [:airforceone]

Reply

Marsh Posté le 12-08-2004 à 17:25:29   

Reply

Marsh Posté le 12-08-2004 à 17:41:11    

faut mettre le site + 1 ou 2 mots clés dans ta signature HFR
 
et poster normalement de manière régulière :)


---------------
Stick a parrot in a Call of Duty lobby, and you're gonna get a racist parrot. — Cody
Reply

Marsh Posté le 12-08-2004 à 18:04:33    

Masklinn a écrit :

faut mettre le site + 1 ou 2 mots clés dans ta signature HFR
 
et poster normalement de manière régulière :)


:jap:

Reply

Marsh Posté le 12-08-2004 à 18:31:16    

Masklinn a écrit :

faut mettre le site + 1 ou 2 mots clés dans ta signature HFR
 
et poster normalement de manière régulière :)


 
c'est clair :D

Reply

Marsh Posté le 12-08-2004 à 19:02:47    

Arjuna a écrit :

Non, c'est au contraire recommandé par Google (sauf que j'ai détourné la chose).


Recommandé ? J'aimerais bien voir ca :D C'est ni plus ni moins que du cloaking. Et Google il aime pas ca le cloaking :
 
http://www.google.com/webmasters/faq.html
 

Citation :

Le terme « cloaking » (masquage) est utilisé pour décrire un site Web qui renvoie des pages spéciales aux moteurs de recherche qui explorent ce site. Autrement dit, ce serveur Web est programmé de manière à présenter des contenus différents aux robots Google et à ses visiteurs, généralement dans le but de favoriser son classement. Cette configuration est généralement trompeuse pour les utilisateurs, car ceux-ci risquent de ne pas être satisfaits par le contenu qui s'affiche lorsqu'ils cliquent sur le lien d'un résultat de recherche. Pour maintenir la qualité et la pertinence des résultats de recherche Google, nous nous engageons à exclure définitivement de notre index les sites ou les créateurs de site qui font appel au cloaking dans le but de favoriser leur classement.


 
Google va mal en ce moment, et les résultats de recherche sont de plus en plus plombés par des webmasters sans scrupules. Je ne serais guère étonné qu'on le voit très prochainement crawler le web avec un agent HTTP différent pour comparer ensuite les pages avec celles crawlées par l'agent googlebot afin de supprimer de l'index tous les pollueurs.
 
Et ce serait une bonne chose !

Reply

Marsh Posté le 12-08-2004 à 19:35:50    

Core 666 a écrit :

Recommandé ? J'aimerais bien voir ca :D C'est ni plus ni moins que du cloaking. Et Google il aime pas ca le cloaking :
 
http://www.google.com/webmasters/faq.html
 

Citation :

Le terme « cloaking » (masquage) est utilisé pour décrire un site Web qui renvoie des pages spéciales aux moteurs de recherche qui explorent ce site. Autrement dit, ce serveur Web est programmé de manière à présenter des contenus différents aux robots Google et à ses visiteurs, généralement dans le but de favoriser son classement. Cette configuration est généralement trompeuse pour les utilisateurs, car ceux-ci risquent de ne pas être satisfaits par le contenu qui s'affiche lorsqu'ils cliquent sur le lien d'un résultat de recherche. Pour maintenir la qualité et la pertinence des résultats de recherche Google, nous nous engageons à exclure définitivement de notre index les sites ou les créateurs de site qui font appel au cloaking dans le but de favoriser leur classement.


 
Google va mal en ce moment, et les résultats de recherche sont de plus en plus plombés par des webmasters sans scrupules. Je ne serais guère étonné qu'on le voit très prochainement crawler le web avec un agent HTTP différent pour comparer ensuite les pages avec celles crawlées par l'agent googlebot afin de supprimer de l'index tous les pollueurs.
 
Et ce serait une bonne chose !


 
clair mon site pourrra reprendre ca 1ere place!!  [:oyaisse2]

Reply

Marsh Posté le 12-08-2004 à 20:54:33    

Ce que j'ai suggéré n'est pas à proprement parler du cloaking. C'est simplement la modification de contenu afin d'indexer les informations contenues dans la page.
 
Du cloaking, c'est foutre une chiée de mots clés inintelligible afin que la page ressorte lors de n'importe quelle recherche.
Moi, ce que je faisais, c'était simplement faire abstraction d'un certain nombre d'éléments de la navigation afin d'augmenter le contenu.
 
Par exemple, si tu vas sur mon site, les articles sont découpés en 3 :
- Oeuvre : informations générales sur un manga
- Manga : Informations spécifiques au format papier de l'oeuvre
- Anime : Informations spécifiques à la version animée de l'oeuvre.
 
Le faite de présenter le contenu de manga et d'anime dans la page oeuvre lors de l'indexage ne nuit aucunement à la qualité du texte interprété, puisque le sujet abordé reste le même. De plus, cela permet même des recherches plus pertinantes. Imagine un simple cas :
- Regarde l'article sur l'oeuvre Ah! My Goddess http://www.manga-torii.com/?page=Oeuvre&id=1
=> Je cite le nom de Keiichi uniquement.
- Regarde la page sur le manga http://www.manga-torii.com/?page=Manga&id=12
=> Je cite pour la première fois l'auteur, et l'éditeur de la version papier en france.
 
- Et regarde enfin la page sur le film http://www.manga-torii.com/?page=Anime&id=16
=> Je cite enfin le nom du second personnage principal Belldandy.
 
Je ne vois pas en quoi c'est dérangeant de présenter ces cinq textes en un seul lors de l'indexation par Google, puisque tous ces articles parlent de la même chose.
 
Par contre, je ne vois pas l'intérêt de faire tous ces articles si une simple recherche sur "keiichi belldandy" ne retourne rien. Pas plus que "bellandy kosuke fujishima".
 
En bref, non seulement ça n'a rien d'un cloak à proprement parler (puisque dans le pire des cas le texte est lisible convenablement pour le visiteur) mais surtout ça améliore au contraire la pertinance des recherches dans les moteurs de recherche en leur permettant de retrouver un site qui traîte du sujet recherché, alors qu'en temps normal il ne l'aurais pas pris en compte.

Reply

Marsh Posté le 12-08-2004 à 22:01:47    

ça dépend, un utilisateur qui cherche "bellandy kosuke fujishima" va tomber sur une page ne contenant que l'un des mots, ce qui n'est pas normal. Et puis tu t'arrêtes où ? Au temps mettre tout ton site sur une page quand google passe alors...
 
 

Arjuna a écrit :

Par exemple, si tu vas sur mon site, les articles sont découpés en 3 :
- Oeuvre : informations générales sur un manga
- Manga : Informations spécifiques au format papier de l'oeuvre
- Anime : Informations spécifiques à la version animée de l'oeuvre.


C'est pas plutôt ça qui coince, un problème de structure du site ? Pourquoi ne pas présenter tout ça sur une page ? Ca éviterait trois click.
 
 
PS : au fait, tu es sûr d'être bien référencé :  

....


Message édité par pascal_ le 12-08-2004 à 22:02:44
Reply

Marsh Posté le 12-08-2004 à 22:29:12    

Core 666 a écrit :


 
Google va mal en ce moment, et les résultats de recherche sont de plus en plus plombés par des webmasters sans scrupules. Je ne serais guère étonné qu'on le voit très prochainement crawler le web avec un agent HTTP différent pour comparer ensuite les pages avec celles crawlées par l'agent googlebot afin de supprimer de l'index tous les pollueurs.
 
Et ce serait une bonne chose !


 
 [:benou_+1] Je ne vais pas sur le net pour me taper des sites de merdes qui ne cherchent qu'à se faire référencer par les moteurs de recherche.
Alors arrêtez ces conneries, si votre site est intéressant, il sera naturellement référencé par les autres sites. Si c'est une merde juste bonne pour dire "j'existe et je pète plus fort que les autres", il sera à la 100.000è page de google et c'est très bien ainsi, on en a vraiment rien à battre.


Message édité par el muchacho le 12-08-2004 à 22:29:50

---------------
Les aéroports où il fait bon attendre, voila un topic qu'il est bien
Reply

Marsh Posté le 13-08-2004 à 00:08:22    

pascal_ a écrit :

ça dépend, un utilisateur qui cherche "bellandy kosuke fujishima" va tomber sur une page ne contenant que l'un des mots, ce qui n'est pas normal. Et puis tu t'arrêtes où ? Au temps mettre tout ton site sur une page quand google passe alors...
 
 
 
C'est pas plutôt ça qui coince, un problème de structure du site ? Pourquoi ne pas présenter tout ça sur une page ? Ca éviterait trois click.
 
 
PS : au fait, tu es sûr d'être bien référencé :  

....


1) Si un utilisateur cherche "Belldandy kosuke fujishima", il recherche une information sur le manga Ah! My Goddess. Donc s'il arrive sur une page traîtant de cette oeuvre, même si c'est pas directement celle qu'il cherche, il a au moins un minimum d'infos, et des liens lui sont proposés clairement s'il veut plus d'infos.
Et le découpage est tel quel, simplement parceque la première des règles de l'ergonomie, c'est de ne pas scroller pour avoir l'information qu'on cherche (à ton avis, pourquoi Google retourne 10 liens par page par défaut ?)
 
2) Qu'est-ce qui m'empêche aussi de mettre tous les articles sur une même page aussi tant que tu y es, C'est vrai, ce sera plus simple, comme ça google est content, et l'utilisateur a tout aussi.
 
3) Si je parle au passé, c'est qu'il y a peut-être une raison non ? J'ai abandonné ce système de référencement il y a 3 ans lorsque j'ai refais mon site. Faut lire un peu et réviser ses cours de CE2 qui expliquant ce qu'est l'imparfait de l'indicatif.

Reply

Marsh Posté le 13-08-2004 à 01:20:03    

Arjuna a écrit :

1) Si un utilisateur cherche "Belldandy kosuke fujishima", il recherche une information sur le manga Ah! My Goddess. Donc s'il arrive sur une page traîtant de cette oeuvre, même si c'est pas directement celle qu'il cherche, il a au moins un minimum d'infos, et des liens lui sont proposés clairement s'il veut plus d'infos.
Et le découpage est tel quel, simplement parceque la première des règles de l'ergonomie, c'est de ne pas scroller pour avoir l'information qu'on cherche (à ton avis, pourquoi Google retourne 10 liens par page par défaut ?)
 
2) Qu'est-ce qui m'empêche aussi de mettre tous les articles sur une même page aussi tant que tu y es, C'est vrai, ce sera plus simple, comme ça google est content, et l'utilisateur a tout aussi.
 
3) Si je parle au passé, c'est qu'il y a peut-être une raison non ? J'ai abandonné ce système de référencement il y a 3 ans lorsque j'ai refais mon site. Faut lire un peu et réviser ses cours de CE2 qui expliquant ce qu'est l'imparfait de l'indicatif.


 
1) si tu recherches sur google "Belldandy kosuke fujishima", tu t'attends à ce que google te retourne en priorité les pages contenant ces 3 mots, suivies des pages contenant que 2 mots, etc.... Avec le système que tu présentes, tu modifies ce comportement. Evidemment, ça va t'arranger toi mais ça n'arrange ni google ni l'utilisateur qui préfèrera tomber directement sur une page contenant les trois mots. En plus google présente quelques lignes de texte contenant des  bouts phrases où les mots ont été trouvé que l'utilisateur ne va pas retrouver dans la page... Si 3 mots extèmements liés n'apparaîssent pas sur la même page, c'est qu'il y a un problème de structure/contenu à revoir et pas un stratagème à construire pour tromper google.
J'ai l'impression que tu penses que ce n'est pas grave puisque tu ne rajoutes pas de mots étrangers, mais ça biaise quand même le système...
 
 
2) :??: C'est le sens du "Et puis tu t'arrêtes où ?" dans mon post précédent...
 
3) pas compris ce que ça change  
 

Reply

Marsh Posté le 13-08-2004 à 03:36:14    

1) Je suis pas d'accord sur ce que l'utilisateur s'attends à trouver quand il tape des mots clés. Moi, quand je tapes "belldandy kosuke fujishima", je me fout pas mal de tomber sur un site de jardinage qui parle de la variété de fraises belldandy qui poussent dans le jardin de monsieur kosuke dans la région fujishima. Ce que je veux, c'est trouver des infos relatives à ma recherche. Que les mots que j'ai utilisé pour ma recherche soient présent ou non, peut m'importe. Je comprends bien ce que tu veux dire dans le sens où si un utilisateur cherche une chose précise, il ne s'attends pas à trouver un truc incomplet retrouvé via un artifice, mais ça vaut encore mieu qu'un site qui contient bêtement les trois mots sans aucun rapport avec ce qu'on cherche. C'est d'ailleurs le but des balises meta de mot clé : ça permet de retrouver un site selon des mots clés, sans que forcément ces mots soient présents dans les pages.
 
2) Ma réponse, parceque en effet, le seuil est impalpable. Mais après c'est au bon sens de faire le travail. Si tu te contente de regrouper des infos qui parlent de la même chose dans une même page, je ne vois pas où est le problème, car non seulement ça augmente tes chances d'être retrouvé, autant ça n'enlève rien à la pertinance du résultat. Comme j'ai dis dans le 1), si je cherche une série de mots clés, je m'en fout pas mal que le sit trouvé contienne tous les mots recherchés, ce qui m'importe c'est que le site parle de ce que je recherche. Alors évidement, tu vas pas mélanger tout et n'importe quoi avec le technique que j'indique.
 
3) Ben si, ça change tout. Google n'est pas statique. Les référencement qu'il a fait à l'époque où j'utilisais cette méthode ont depuis longtemps disparu de sa base. Aujourd'hui les recherches que j'ai indiqué ne peuvent pas retrouver les groupes de mots que j'ai indiquer, puisque ces mots ne sont pas groupés... Ca me paraît pourtant on ne peut plus logique.

Reply

Marsh Posté le 13-08-2004 à 03:41:49    

Quand à ce que tu reproches à mon site dans le point 1), je suis désolé, il va à l'encontre de toute règle d'ergonomie. Un site web, c'est comme un topic. Si quand je cherche un truc précis je tombe sur un listing de 25 écrans, je calle l'affaire et he cherche un site plus concis. C'est le but de l'architecture que j'ai utilisé (même si en effet les textes sur mon site sont un peu juste)
Pas plus tard que ce matin, en demandant des conseils dans la cat graphisme (visitée par des personnes tout à fait compétentes) je me suis vu répondre de ne pas utliser de textes kilométriques. C'est le but du découpage.
 
Google, lui, se fout de cet aspect. Il peut y avoir 20 000 lignes, il va tout indexer comme un con, et retourner la page en premier parcequ'il a trouvé beaucoup d'occurences des mots recherché. Je ne sais pas comment tu fonctionnes, mais moi, quand je tombe sur ce type de site, je zappe, j'ai pas là journée pour lire 25 écrans d'affillée avant de trouver le paragraphe qui m'intéresse.

Reply

Marsh Posté le    

Reply

Sujets relatifs:

Leave a Replay

Make sure you enter the(*)required information where indicate.HTML code is not allowed