Cours webmaster : Référencement professionnel comment choisir


Télécharger Cours webmaster : Référencement professionnel comment choisir
3.53.5 étoiles sur 5 a partir de 1 votes.
Votez ce document:

Télécharger aussi :


Référencement professionnel comment choisir

...

Pourquoi les moteurs ne peuvent pas trouver mon site sans aide du référencement ?

Les moteurs de recherche travaillent en permanence à l’amélioration de leur technologie afin de visiter (on utilise communément le terme crawler issu de l’Anglais to crawl) Internet de plus en plus en profondeur et de retourner des résultats de recherche de plus en plus pertinents. Cependant, il existera toujours une limite à la façon dont les moteurs opèrent. Alors que les bons choix peuvent attirer l’attention sur votre site de la part de milliers de visiteurs il faut comprendre que les mauvais choix peuvent enterrer votre site profondément dans les résultats de recherche (dès lors votre visibilité est nulle). En plus de rendre votre contenu disponible aux moteurs, le référencement peut aider à améliorer votre positionnement afin que les visiteurs trouvent votre site plus facilement. Internet devient de plus en plus concurrentiel et les sociétés de référencement ont un avantage décisif.

Quelles parties de cet article dois-je lire ?

Si vous êtes sérieux à propos de l’amélioration de votre trafic Internet et que vous n’êtes pas familier avec les techniques de référencement nous vous recommandons de lire ce guide du début à la fin. Ce guide est long mais nous avons fait un effort afin d’éviter les phrases redondantes et inutiles.

Chaque section et chaque sujet de ce rapport sont vitaux pour comprendre les techniques les plus connues et les plus efficaces sur les pratiques d’optimisation de site pour les moteurs de recherche.

Comment marche un moteur de recherche ?

Les moteurs de recherche ont une courte liste d’opérations fondamentales qui permettent de leur procurer des résultats de recherche pertinents quand les internautes utilisent leur système pour trouver de l’information.

  1. Crawler le Web

Les moteurs de recherche font tourner des programmes automatiques qu’on appelle bots ou spiders qui utilisent la structure des liens hypertexte pour « crawler » les pages et les documents qui sont contenus dans le World Wide Web.

  1. Indexation de documents

Une fois qu’une page a été crawlée, son contenu peut être “indexé”. C'est-à-dire qu’il est stocké dans une base de données géante qu’on nomme "l’index" du moteur de recherche. Cet index est géré de manière très efficace puisque les moteurs retournent en une fraction de seconde des résultats qui proviennent d’une recherche parmi des milliards de documents.

  1. Traitement des requêtes

Quand une demande d’information est effectuée sur un moteur de recherche (cela est fait des centaines de millions de fois par jour), le moteur va chercher dans son index tous les documents qui sont en rapport avec la requête. La pertinence du document dépend des termes ou phrases de la requête de l’internaute qui sont contenues dans le texte du document, mais aussi de la manière dont l’internaute a composé sa requête dans le champ de recherche du moteur. Par exemple, une requête pour auto  magazine retourne 134 millions de résultats (chiffres au 01/04/2006), mais la même requête entre guillemets "auto magazine" retourne simplement 487 000 résultats (chiffres au 01/04/2006). Dans la première requête qu’on appelle aussi mode "Findall" Google retourne tous les documents qui contiennent les termes « auto » et « magazine » ; alors que la seconde requête retourne les documents qui contiennent exactement les termes dans cet ordre et sans autres termes entre les deux mots. Il existe de nombreux opérateurs qui peuvent changer les résultats de recherche (Google propose 11  opérateurs de recherche).

  1. Résultats de recherche

Une fois que le moteur a déterminé quels résultats sont pertinents pour la requête, c’est au tour de l’algorithme de se mettre en marche (il s’agit d’une équation mathématique qui permet de trier selon un ordre de pertinence et de popularité). Le calcul effectué par l’algorithme permet d’afficher des résultats triés par ordre décroissant de pertinence afin que l’internaute dispose des meilleurs résultats en premier.

Il faut imaginer que les moteurs opèrent des millions de calculs chaque seconde et répondent à des demandes d’information d’un très grand nombre d’utilisateurs.

Facteurs ralentisseurs et bloquants

Certains éléments techniques d’un site Internet peuvent empêcher les moteurs de trouver le contenu des pages. Un bot crawle le réseau Internet et se base sur l’architecture des liens hypertexte afin de trouver de nouveaux documents et de revisiter ceux qui ont peut-être été modifiés. Parmi les facteurs bloquants les plus courants on peut citer les URLs complexes et la structure profonde avec un contenu unique minimal. Parfois, les données ne peuvent être accédées par le bot car il se retrouve littéralement devant un mur.

Facteurs ralentisseurs pour les moteurs de recherche :

  • URLs avec plus de 2 paramètres dynamiques; par exemple

http://www.url.com/page.php?id=4&CK=34rr&User=%Tom% (les bots peuvent être peu disposés à crawler des URLs trop complexes parce qu’elles retournent parfois des erreurs pour les visiteurs "non humains").

  • Les pages qui contiennent plus de 100 liens vers d’autres pages peuvent donner comme résultat le fait que tous les liens ne soient pas suivis.
  • Les pages enterrées à plus de 3 clics de profondeur (3 niveaux de répertoires) depuis la page d’accueil d’un site Web. A moins qu’il n’y ait de nombreux liens externes qui pointent vers ces pages on voit souvent les bots ignorer ces pages profondes.
  • Les pages qui demandent un ID de session ou un cookie afin de permettre la navigation (les bots peuvent être incapables de retenir ces éléments bien qu’un navigateur Web le puisse).
  • Les pages qui sont construites sous forme de « cadres » ou « frames » peuvent empêcher les bots de crawler le contenu et peuvent aussi provoquer une confusion sur le choix de la page à retourner dans les résultats de recherche.

Facteurs bloquants possibles pour les bots des moteurs de recherche :

  • Pages accessibles seulement via un formulaire ou un bouton de soumission.
  • Pages qui demandent un formulaire de type “drop down”.
  • Documents accessibles seulement via un champ de recherche
  • Documents bloqués sciemment via la meta tag “robots” ou le fichier robots.txt
  • Pages qui demandent une identification par login et/ou mot de passe.
  • Pages qui sont redirigées avant de montrer le contenu (on appelle cela du cloaking, mais l’utilisation de cette technique peut entraîner un bannissement de l’index d’un ou plusieurs moteurs. On appelle ce bannissement le blacklistage).

La clé pour s’assurer que le contenu d’un site est complètement crawlable est de proposer des liens HTML directs vers chaque page que vous voulez indexer par les moteurs. Il faut se rappeler que si la page n’est pas accessible (directement ou indirectement) depuis la page d’accueil (point de départ le plus plausible pour un bot) il est probable qu’elle ne sera pas indexée. Un plan du site peut être d’une aide sérieuse pour ce paramètre.

Mesurer la pertinence et la popularité des librairies, centres de recherche et laboratoires gouvernementaux. Très tôt, les chercheurs ont réalisé qu’il existait 2 composants essentiels à toute fonction de recherche :



Pertinence : le degré qui définit la façon dont un document retourné par une recherche est en corrélation avec la requête et les intentions de l’utilisateur. La pertinence d’un document augmente si les termes ou la phrase de la requête se répètent de nombreuses fois dans le document et plus spécialement dans les titres et les en-têtes.

Popularité : l’importance relative mesurée par les citations (l’acte d’un document qui référence un autre document, comme cela est couramment le cas dans les documents académiques ou commerciaux). La popularité d’un document augmente avec chaque autre document qui fait référence à au premier.

Ces 2 éléments ont été transmis, 40 ans plus tard, à la recherche d’information en ligne. Ils se manifestent sous la forme d’analyse de liens et de documents.

Dans l’analyse de document, les moteurs de recherche regardent si les termes de la requête sont trouvés dans les parties « importantes » du document (title, meta, en-têtes et texte du body). Ils essayent aussi de mesurer automatiquement la qualité du document grâce à des systèmes complexes qui dépassent le cadre de ce document).

Dans l’analyse de lien, les moteurs de recherche mesurent qui fait des liens vers un site ou une page, mais aussi qu’est ce que la page ou site raconte à propos du site lié. Ils ont aussi une très bonne idée de qui est affilié avec qui grâce à l’historique/données de liens, registre du site (WHOIS) et d’autres sources. Ils savent aussi qui est de bonne réputation (des liens depuis des .edu ou .gov sont généralement plus valables pour cette raison). Il faut aussi prêter attention aux données contextuelles du site qui héberge la page auditée (qui fait des liens vers ce site, qu’est ce qu’ils en disent, etc.).

L’analyse de lien et de document combine des centaines (milliers) de paramètres qui peuvent êtres individuellement mesurés et filtrés au travers des algorithmes de moteurs de recherche (le set d’instructions qui dit au moteur l’importance qu’il faut assigner à tel ou tel facteur). L’algorithme détermine le score des documents et retourne les résultats par ordre décroissant en fonction de l’importance (ranking).

L’information qui donne confiance aux moteurs de recherche

Tandis que les moteurs de recherche indexent les structures de liens et le contenu des pages du réseau Internet, ils trouvent deux formes distinctes d’information à propos d’un site ou d’une page en particulier. Les attributs de cette page ou de ce site et les descriptions qu’en font les autres pages. Comme le Web est devenu largement commercial, les moteurs ont vite appris qu’ils ne pouvaient pas avoir entièrement confiance dans les sites eux-mêmes pour juger de leur importance. De ce fait, le temps des pages Web où les Meta tags et le contenu artificiellement truffées de mots clés dominaient les résultats de recherche (avant 1998) est révolu. Désormais, les moteurs mesurent la confiance via les liens et le contenu.

La théorie qui veut que si des centaines ou des milliers de sites pointent un lien vers votre site, alors votre site doit être populaire bat de l’aile. C’est vraiment quand les liens proviennent de sources de confiance que la valeur du lien est décuplée. Des liens depuis des sites comme NYTimes.com, Yale.edu, Whitehouse.gov et bien d’autres portent un capital confiance auprès des moteurs de recherche. Des liens de cette catégorie ne peuvent qu’améliorer le positionnement de votre site. D’un autre côté, si les liens qui pointent vers votre site sont de mauvaise qualité ou appartiennent à un réseau de sites il est fort probable que ces liens seront dévalués.

Le système basé sur l’analyse des liens le plus connu pour classer les sites a été développé par les fondateurs de Google. Ce système de notation se nomme le Page Rank et il se base sur un système de calcul décrit par Google dans leur section technologie.

Le Page Rank repose sur la nature démocratique du Web qui utilise une vaste structure de liens comme indicateur de la valeur unique d’une page Web. En résumé, Google interprète un lien d’une page A vers une page B comme un votre depuis la page A vers la page B. Cependant, Google va plus loin que le simple volume de vote ou liens qu’une page reçoit. Il analyse aussi la page qui donne ce vote. Si les votes sont donnés par des pages qui sont « importantes » alors cela pèse plus et cela aidera à rendre d’autres pages « importantes ».

Le Page Rank est dérivé d’un amalgame de tous les liens qui pointent vers une page en particulier additionnant la valeur du Page Rank qu’elles passent (basé sur leurs propres Page Rank) et de calculs appliqués dans la formule mathématique (voir l’explication de Ian Rogers pour plus de détails)..

La toolbar de Google inclut un icône qui affiche la valeur de 0 à 10 du Page Rank

Le Page Rank, en résumé, mesure ma force brute des liens entrants d’un site basée sur chaque lien qui pointe vers celui-ci sans porter d’importance significative à la qualité, la pertinence ou la confiance. Dans l’ère moderne du référencement le Page Rank affiché par la Google Toolbar est de valeur limitée. Des pages de PR8 peuvent se trouver dans les positions 20 à 30 et loin derrière des PR3 ou PR4. De plus, les chiffres de la Google Toolbar sont mis à jour tous les 3 à 6 mois par Google, rendant sa valeur encore moins efficace. Plutôt que de focaliser sur le Page Rank il est important de penser à la valeur intrinsèque d’un lien.

Voici une liste des facteurs les plus importants pour valoriser un lien aux yeux des moteurs de recherche :

  • L’Anchor Text du lien – l’anchor text décrit les caractères et mots visibles sur un hyperlien d’un document sur le web. Par exemple, dans la phrase "CNN est une bonne source d’actualités, mais je préfère la façon dont BBC approche les événements's take on events," il y a 2 éléments uniques d’anchor - "CNN" est l’anchor text pointant ..., pendant que " la façon dont BBC approche les événements" pointe vers ... Les moteurs de recherche utilisent ce texte pour aider à déterminer le sujet du document lié. Dans l’exemple précédent, les liens disent au moteur de recherche que lorsque les utilisateurs recherchent « CNN », le site ... est pertinent pour le terme de la recherche. Si des centaines ou milliers de sites pensent que cette page en particulier est pertinente pour le set donné de termes ; cette page peut espérer se positionner convenablement, même si les termes de la requête n’apparaissent JAMAIS dans le texte de la page (voir l’explication de BBC pour la raison des résultats de la requête "Miserable Failure").
  • Popularité globale du site – Les sites populaires, caractérisés par le nombre et la puissance des liens qui pointent vers lui, procurent des liens plus puissants. Ainsi, pendant qu’un lien depuis SEOmoz peut être une note valable pour un site, un lien depuis bbc.co.uk ou cnn.com portent un poids supérieur. C’est un domaine où le Page Rank (en assumant qu’il soit précis) peut-être un bon indice puisqu’il est conçu pour calculer la popularité globale.
  • Popularité du site dans une communauté pertinente – Dans l’exemple précédent, le poids ou la puissance du vote d’un site est basé sur la popularité basique au travers du web. En devenant plus sophistiqués dans leur analyse d’un lien, les moteurs de recherche reconnaissent l’existence de « communautés thématiques ». C’est à dire les sites qui traitent du même sujet et qui se lient souvent entre eux, faisant référence à des documents et proposant des données uniques sur un sujet particulier. Les sites dans ces communautés procurent plus de valeur quand ils font un lien vers un site ou une page sur un sujet pertinent plutôt qu’un site qui est plutôt hors sujet.
  • Texte entourant le lien – Les moteurs de recherche portent plus de poids au texte qui entoure le lien que le reste du texte sur la page. Ainsi, un lien depuis l’intérieur d’un paragraphe porte plus de poids qu’un lien dans le menu ou le footer.
  • Thématique de la page qui fait le lien – La relation inter thématique entre le sujet d’une page donnée et les sites ou les pages qui lui font un lien peut aussi être un facteur dans la valeur que les moteurs de recherche assignent au lien. Ainsi, il est plus intéressant de recevoir des liens de pages qui sont de thématique similaire ou complémentaire plutôt que de pages qui n’ont rien à voir avec le sujet.

Les paramètres ci-dessus sont simplement quelques uns des nombreux paramètres que la plupart des moteurs de recherche pondèrent lorsqu’ils évaluent les liens. Pour plus de détails veuillez consulter l’article suivant de SEOmoz sur les paramètres de positionnement des moteurs de recherche search engine ranking factors article.



La pondération des liens est en place afin que les moteurs de recherche puissant trouver de l’information pertinente en suivant les liens. Dans le monde académique, les citations de valeur ont un poids important, mais dans un environnement commercial les manipulations et les enjeux conflictuels interfèrent avec la pureté de la mesure basée sur la validité de l’information. Ainsi, dans le Web moderne, la source, le style et le contexte des citations sont essentiels afin de s’assurer de la qualité des résultats.

Anatomie d’un hyperlien

Un hyperlien standard en code HTML peut ressembler à ceci :

Dans cet exemple, le code indique simplement que le texte “SEOmoz” (qu’on appelle “anchor text” du lien) fait un hyperlien vers la page ... . Un moteur de recherche peut interpréter ce code comme un message signifiant que la page qui contient ce code indique que la page ... est pertinente par rapport au texte sur la page et particulièrement pertinente pour le terme “SEOmoz”.

Un exemple plus complexe de code HTML pour un lien peut inclure des attributs plus évolués comme :

Dans cet exemple, de nouveaux éléments sont apparus comme le titre du lien et l’attribut “rel”. Ces éléments peuvent influencer la façon dont un moteur de recherche évalue le lien malgré le fait que son apparence sur la page peut changer. L’attribut “Title” peut servir pour inclure des éléments additionnels d’information afin d’informer les moteurs que le site ... est pertinent pour le terme “SEOmoz” mais aussi pour la phrase “Rand’s Site”. L’attribut “rel” est conçu pour décrire la relation entre la page qui émet le lien et la page qui reçoit le lien. Avec la récente apparition du “nofollow” il est évident que l’attribut “rel” est devenu plus complexe.

"Nofollow" est un tag conçu pour les moteurs de recherche. Quand l’attribut “rel” est ajouté à un lien cela indique à l’algorithme du moteur qu’il ne faut pas considérer ce lien comme un “vote” approuvé vers la page liée. Aujourd’hui les 3 principaux moteurs approuvent le “nofollow”. Askjeeves, à cause de son algorithme particulier de calcul de popularité ne supporte pas le “nofollow” et il ignore sa présence dans le code source du lien. Pour plus d’informations sur le “nofollow” veuillez consulter le billet de Danny Sullivan sur le nofollow 's description of nofollow's inception sur le blog de SEW.

Certains liens peuvent être assignés à des images plutôt qu’à des textes :

Cet exemple montre une image intitulée “rand.jpg” faisant un lien vers la page …. L’attribut “alt” est conçu à l’origine pour décrire l’image quand elles sont lentes à charger ou pour les navigateurs vocaux des aveugles. Dans l’exemple on peut lire “Rand Fishkin de SEOmoz” (certains navigateurs font apparaître le texte du “alt” en passant la souris sur l’image). Les moteurs de recherche peuvent utiliser cette information, dans le cas d’un lien image, pour interpréter le nom de l’image et l’attribut “alt” à propos de la page qui est liée.

D’autres types de liens peuvent être utilisés sur le Web et la majorité ne transmettent pas de popularité et/ou ne permettent pas d’êtres suivis à cause de l’utilisation de redirection Javascript ou autre technologie. Un lien qui ne peut pas contenir le format classique <a href)”URL”>texte</a>, que ça soit en lien texte ou image, doit être considéré comme suspect quand il s’agit de transmettre de la popularité via les moteurs de recherche (hormis dans des cas exceptionnels où les moteurs arrivent à suivre ces styles de liens plus complexes).

Dans cet exemple, la redirection mélange l’URL en l’écrivant à l’envers, mais la remet en ordre plus tard à l’aide d’un script qui renvoie le visiteur vers le site. Il peut donc être assumé que cela ne transmet aucune valeur au niveau d’un moteur de recherche.

<a href="redirectiontarget.htm">SEOmoz</a>

Cet exemple montre qu’un simple code Javascript qui appelle une fonction référencée dans le document pour sortir une page spécifique. L’utilisation créative du Javascript ne passera aucune valeur au lien pour un moteur de recherche.

Il est important de comprendre que les moteurs peuvent (ou ne peuvent pas), en se basant sur l’anatomie du lien, interpréter et utiliser les données. Alors que les liens conçus convenablement peuvent apporter un poids important, les liens mal façonnés seront inutiles pour des finalités de référencement. Plus d’informations sur les liens sont disponible à anatomy and deployment of links.

Mots Clés et Requêtes

Les moteurs de recherche reposent sur les termes tapés par les utilisateurs pour déterminer quels résultats rentrer dans l’algorithme, ordonner et ressortir. Mais, plutôt que simplement reconnaître et analyser des concordances exactes pour les termes de recherche, les moteurs de recherche utilisent leur connaissance de la sémantique (la science du langage) pour construire des concordances intelligentes qui retournent des requêtes pertinentes. Un exemple pourrait être une requête “organismes de crédit” qui retournent des résultats de recherche qui ne contiennent pas cette requête spécifique, mais plutôt qui contiennent le terme “banques”.

Les moteurs collectent des données basées sur la fréquence d’utilisation des termes et les co-occurrences des mots et phrases au travers du web. Si certains termes ou phrases sont souvent trouvées ensemble sur des pages ou des sites, les moteurs de recherche peuvent construire des théories intelligentes à propos de leurs relations. En explorant les données sémantiques au travers de l’incroyable corpus qu’est Internet les moteurs de recherche ont acquis des données inestimables à propos des mots et des connections entre les mots assemblés artificiellement. Cette immense connaissance du langage et son utilisation permettent de connaître la thématique de la page, les autres pages du site en relation avec la thématique, comment la structure des liens connecte les communautés à thématique similaire ou complémentaire, etcÉ

La progression d’intelligence artificielle des moteurs de recherche à propos du langage signifie que les requêtes retourneront des résultats de recherche de plus en plus évolués. L’investissement élevé dans la technique de process de langage naturel (NLP) qui aide à mieux comprendre la signification et les intentions des requêtes d’utilisateurs. Sur le long terme, les utilisateurs peuvent espérer que les résultats de ce travail produisent une pertinence améliorée dans les résultats de recherche et des suggestions plus précises de la part des moteurs à propos des intentions de l’utilisateur.

Ne pas mélanger les torchons et les serviettes

Dans le monde idéal de la recherche d’information, quand les intérêts commerciaux n’existaient pas dans l’index, les moteurs pouvaient utiliser des algorithmes simplistes pour retourner des résultats de recherche de grande qualité. Aujourd’hui ce n’est plus la même histoire. Les intérêts commerciaux présents dans les résultats de recherche sont un souci constant pour les moteurs de recherche. En fait, des milliers de référenceurs manipulent les paramètres propres au référencement pour prendre position en tête de résultats.

La pire espèce de résultat est le “search spam” qui consiste à présenter des pages sans contenu de valeur, mais qui redirige vers d’autres pages, principalement commerciales. Le contenu de ces pages cachées peut être simplement une liste de lien, du contenu repiqué ailleurs, du contenu optimisé pour des mots clés, etc... Les moteurs focalisent sur ce type de page pour essayer de les retirer de l’index. Naturellement, les possibilités de gain monétaire (qui sont similaires au spam par email) sont un attrait malgré le fait que peu de visiteurs cliquent sur chaque page il faut noter que la masse de pages est telle que les gains possibles sont conséquents.



D’autres types de spam peut aller du site qui est de basse qualité aux pages qui contiennent de nombreux liens d’affiliation en passant par les sites commerciaux de qualité qui focalisent sur une structure de liens efficace. Les moteurs préféreraient aussi ne pas indexer ces sites. En fait, les moteurs de recherche focalisent sur le nettoyage en profondeur de tout type de manipulation et ils espèrent, un jour, proposer des algorithmes organiques parfaitement pertinents afin de déterminer le classement des résultats de recherche. Les spammeurs sont engagés dans une bataille constante avec les moteurs qui combattent les pratiques de triche.

Ce guide n’explique pas comment manipuler les résultats de recherche afin d’obtenir un bon positionnement, mais plutôt sur la façon de concevoir un site que les moteurs de recherche et les utilisateurs vont être ravis de voir positionné en permanence dans les meilleurs résultats de recherche grâce à leur pertinence, la qualité de contenu et leur ergonomie.

Liens commerciaux et sources secondaires dans les résultats

Les résultats de recherche d’un moteur contiennent des documents qui sont retournés organiquement en fonction de la requête de l’utilisateur, mais aussi d’autres types de contenu comme les liens commerciaux et des sources de résultats secondaires. Par exemple, chez Google, les résultats contiennent des liens du fameux programme AdWords program (qui représente plus de 90% des revenus de Google) ainsi que du contenu secondaire comme local search, product search (nommé Froogle) et des résultats de image search .

Les sites et les pages listées dans les résultats organiques reçoivent la majorité des visites de la part des utilisateurs et de la visibilité – entre 60 et 70% dépendant de facteurs comme le nombre de liens commerciaux et de contenu secondaires, etc... Les campagnes de liens commerciaux demandent de bonnes connaissances afin de cibler les bonnes requêtes, définir parfaitement les annonces, etc... Tout cela dépasse le cadre de ce guide. Notre guide focalise sur les résultats organiques.

Comment définir les mots clés à cibler

La rechercher de mots clés est vitale dans le processus de référencement. Sans cette composante, les efforts pour obtenir une bonne visibilité dans les résultats de moteurs seront dévalués par des mots clés mal choisis qui résulteront en un positionnement sur des requêtes que personne ne recherche. La méthode pour choisir des mots clés se compose de plusieurs phases :

  1. Brainstorming – Penser ce que les visiteurs ou clients potentiels taperaient de façon évidente afin de trouver l’information ou le service que votre site propose (en incluant les fautes d’orthographe, synonymes, épellation alternative, ...)
  2. Sondage de clients – En effectuant des sondages auprès de clients ou clients potentiels vous pourrez étendre de manière drastique votre liste de mots clés. Cette liste vous donnera aussi les mots clés qui sont soumis au plus fort taux de conversion.
  3. Utiliser les outils de suggestion de mots clés – Plusieurs outils en ligne (comme Wordtracker & Overture – qui seront décris plus loin) offrent des informations intéressantes à propos du nombre de fois qu’une requête est tapée ainsi que d’autres mots clés tapés directement par les utilisateurs. Ces outils offrent des données concrètes à propos des tendances de requêtes d’utilisateurs.
  4. Sélection de termes – La prochaine étape concerne la création d’une matrice ou charte qui analyse les termes que vous pensez être les plus valables par rapport au trafic et à la conversion potentielle, mais aussi en tenant compte de la concurrence. Cela permet de rester informé sur les décisions à prendre et les requêtes à cibler en fonction de vos ressources et capacités. L’outil de SEOmoz KW Difficulty Tool  peut aussi aider dans cette tâche.
  5. Test de performance et – Après avoir choisi et implémenté vos mots clés, c’est l’analyse de votre trafic à l’aide d’outils comme Indextools et ClickTracks qui permettent de raffiner vos mots clés actuels et d'en choisir de nouveaux.

Wordtracker & Overture

Aujourd’hui, les deux sources les plus populaires pour la recherche de mots sont : Wordtracker, qui offre des statistiques depuis des Meta moteurs comme Dogpile (qui représente environ 1% des requêtes effectuées en lign) et Overture (récemment promu en tant que membre de Yahoo! Search Marketing), qui offre des données collectées depuis des sources commerciales sur le moteur de recherche Yahoo! (qui représente environ 22 à 28% de parts de marché). Alors qu’il faut savoir qu’aucune source n'est exempte de défaut on peut dire que les deux sources présentent de bons chiffres qui permettent de mesurer et comparer sereinement. Par exemple, pendant qu’Overture et Wordtracker sont en désaccord sur les chiffres pour la requête « red bicycles » (qui reçoit 240 requêtes pour Overture et 380 pour Wordtracker) il faut surtout observer que les 2 outils informent que ce terme est plus populaire que « scarlet bicycles », « maroon bicycles » ou même « blue bicycles ».

Pour Wordtracker, qui propose plus de détails mais se base sur une base de donnés bien plus petite, les termes et phrases sont triés par les majuscules, pluriels et l’ordre des mots. Dans l’outil Overture, les requêtes multiples sont combinées. Par exemple, Wordtracker va traiter indépendamment « car loans », « Car Loans », « car loan », et « cars Loan » ; alors qu’Overture va donner un chiffre unique pour tous. La granularité de ces données peut aussi être plus utile afin d’analyser les recherches qui peuvent résulter en un résultat de positionnement unique (c’est souvent le cas pour les pluriels et pour l’ordre des mots), mais les majuscules n’ont pas autant de conséquences car les moteurs de recherche ne tiennent pas compte des minuscules ou majuscules.

Il faut garder à l’esprit que Wordtracker et Overture sont tous les deux utiles pour la recherche relative de données sur les mots clés, mais ils peuvent être franchement faux quand il s’agit d’évaluer le trafic potentiel. En d’autres mots, il faut utiliser ces outils pour sélectionner les mots clés à cibler, mais ne vous reposez pas dessus pour prédire la masse de trafic que vous pouvez atteindre. Si votre but est d’évaluer le trafic il vaut mieux utiliser des programmes comme Google's Adwords et Yahoo! Search Marketing afin d’estimer le nombre d’affichages pour une requête particulière.



923