Le référencement naturel : évolution, intérêts et perspectives


Télécharger Le référencement naturel : évolution, intérêts et perspectives
3.53.5 étoiles sur 5 a partir de 1 votes.
Votez ce document:

Télécharger aussi :


Le référencement naturel :

évolution, intérêts

et perspectives 

Version 1.1 - 15 décembre 2005

Adresse de téléchargement :

Conception-rédaction : François Simoneschi

Sous la direction de : David Degrelle

Réalisé grâce à la participation de toute l'équipe de 1ère Position : Lydia Arzour, Christophe

Bonnet, David Charbonnier, Lionel Cherpin, Teodor Dachev, Pierre Foucher, William Gourbin, Odelia Grougnet, Sylvie Lapierre, Gilles Macabies, Juan Naveira, Michèle Ramponi, Valérie Suptil, Laurence Tezier, Laurence Thomas, Anne-Marie Torres.

Sommaire

1èrepartie : La nécessité d'un code déontologique pour le référencement

            1. Une histoire des moteurs de recherche

a.  La nécessité des outils de recherche

b.  Google : le moteur préféré des internautes en France

c.  La raison du succès de Google

d.  Des concurrents suiveurs

            2. Le référencement : un métier détourné de sa vocation originelle

a.  Naissance d'un nouveau métier à la rencontre du marketing et de la technique

b.  Des solutions temporaires transformées en dérives

c.  Comment Google cherche à préserver sa notion de pertinence

            3. L'internaute : le cœur de métier oublié du référencement

a.  La prise de pouvoir de l'internaute et le respect de la Netiquette

b.  Netiquette, charte éditoriale de Google et LCEN : même combat

            4. Définition d'un code de déontologie pour le référencement

2èmepartie : Le référencement naturel, dans l'intérêt conjugué des internautes et des moteurs de recherche

                1. Pourquoi intégrer le référencement naturel en amont d'un projet de site Internet

a.  Créer du trafic ciblé

b.  Accessibilité et référencement naturel : mêmes valeurs

c.  Usabilité : comprendre les attentes des internautes en matière d'usage

d.  Définition du référencement naturel

            2. Le référencement naturel, une solution durable et performante

a.  Gains / Intérêts

b.  Inconvénients

3èmepartie : Aller au-delà du référencement éthique et naturel, ou comment rendre un business modèle attractif pour l'internaute 

1. Une démarche de WebMarketing innovante : le permission marketing

2. Etre en adéquation avec les nouveaux usages communautaires (Blogs, Wikis, etc.)

1èrepartie : La nécessité d'un code déontologique pour le référencement

1. Une histoire des moteurs de recherche

a. La nécessité des outils de recherche

69, année… électronique. C'est la naissance d'Internet. Les ordinateurs ne sont plus considérés comme des îles, isolées les unes des autres. Ils peuvent communiquer entre eux, partager leur capacité de calcul, ce qui est alors impératif pour des machines extrêmement chères et volumineuses.

Initialement baptisé ARPAnet, Internet n'est qu'un projet de recherche avancée du gouvernement américain parmi tant d'autres. Il consiste en un réseau expérimental permettant l'échange d'informations entre des sites éloignés de recherche et de développement, et pouvant fonctionner sans interruption, même en cas de destruction partielle du réseau.

Un quart de siècle plus tard, cet outil, utilisé à l'origine par les gouvernements, l’armée et les universités, devient ludique et convivial. Il détient les arguments pour toucher massivement le grand public grâce à un mode d'échanges entre ordinateurs révolutionnaire : le World Wide Web.

Créé par Tim Berners-Lee, le format Web introduit l'usage de documents « multimédias ». Si Internet quitte un univers confiné au texte pour s'ouvrir au son, à la musique, aux images et à l'animation, la grande nouveauté réside surtout dans le système Hypertexte.

En effet, à la différence de la lecture linéaire, le système Hypertexte n'impose pas un raisonnement au lecteur. Il crée des liens entre des documents, ce qui favorise le cheminement de la pensée du lecteur. Appliqué à Internet, l'Hypertexte permet de passer d'une page Web à une autre sans besoin d’en connaître la référence, c'est-à-dire l'adresse URL. Le déplacement sur le réseau, réalisé de centre d'intérêt en centre d'intérêt, devient donc transparent pour l'utilisateur.

Cette convivialité contribue largement à la démocratisation d'Internet. 


Après l'invention du courrier électronique et la création du premier groupe de discussion (newsgroup) dans les années 70, le Web fait entrer Internet dans une nouvelle dimension. Fin 1969, le réseau ARPAnet original est constitué de quatre ordinateurs. En 1994, on compte déjà deux millions et demi d'ordinateurs sur le réseau Internet et le particulier commence à s'inviter à cette fête permanente

 de la connaissance. Dans cet océan de savoir, il n'est plus possible de naviguer à vue. Le moteur de recherche est mûr Arpanet fin 1969

pour devenir l'indispensable second du véritable capitaine du vaisseau Internet : l'internaute.

FOCUS : Le modèle de l'annuaire consiste à recenser les sites Internet et à les classer par thèmes suivant une hiérarchie plus ou moins développée de catégories et de sous-catégories. Un annuaire est construit et tenu à jour manuellement par des spécialistes qui jugent de l'intérêt et de la qualité d'un site Internet avant de le répertorier.

La recherche par mots-clés, caractéristique des moteurs de recherche, s'est imposée en termes d'usage sur la recherche par catégories. Aujourd'hui, seule une recherche sur 15 est effectuée à l'aide d'un annuaire. D'où l'abus de alngage qui consiste à parler de « moteur de recherche » au lieu de l'expression « outil de recherche ».

b. Google : le moteur préféré des internautes en France

Etudiants à l'Université Standford (Californie), Jerry Yang et David Filo créent en 1994 un site Internet pour recenser les adresses du Web les plus utiles à leurs travaux. A leur grande surprise, leur « Jerry's Guide to World Wide Web » est rapidement visité par des centaines de personnes. 

En mars 1995, Yang et Filo décident d'apporter la paix dans les esprits en quête de connaissance en développant un modèle économique autour de leur annuaire Web. Ils fondent la société Yahoo!®, en référence aux créatures des "Voyages de Gulliver" de Jonathan Swift, lesquelles ne songeaient qu'à se faire la guerre pour des prétextes futiles. Le succès est fulgurant. Le vétéran des outils de recherche généralistes du Web réalise même une entrée spectaculaire en bourse en avril 1996 avec la vente de 2,6 millions d'actions à 13 dollars l'unité. 

Yahoo!® n'est pas historiquement le premier outil de recherche de l'information sur Internet. Dès 1989, le Wide Area Information Servers (WAIS) permet de récupérer des informations dans des bases de données réparties dans le monde. Quatre ans plus tard, Clearinghouse devient le premier guide gratuit des meilleures ressources du Web. Il est élaboré par des personnes indépendantes et spécialisées dans un domaine spécifique. 1995 est marqué par le lancement d'Ecila, l'un des premiers moteurs de recherche français, de Lycos, d'Excite, de Lokace, d'Infoseek, et en décembre, d'Alta Vista™.

Ce dernier accueille 300 000 utilisateurs le jour de sa mise en service. Six mois plus tard, il recense 30 millions de pages Web sur 225 000 serveurs et 14 000 groupes de discussion. Alta Vista™ est alors considéré comme le plus puissant et le plus perfectionné des moteurs de recherche. Il gère 12 millions de requêtes quotidiennes.

Nomade et Voila seront respectivement créés en juillet 1996 et en janvier 1997. C'est pourtant Google , le dernier né des moteurs de recherche généralistes - ou presque : All The Web sera lancé en mai 1999 -, qui rafle aujourd'hui la mise en France.

En effet, selon le baromètre

                                                                                                                                  XiTi/1ère          Position de novembre

2005, Google accapare 81,21 % du      trafic généré par les moteurs de recherche,       loin      devant        Yahoo!® (5,04%), Voila (4,63%) et MSN® (3,69%). Ces quatre moteurs de recherche génèrent plus de 95% du trafic.

Arrivé en version française au mois d'avril 2000, Google est déjà en tête du premier baromètre Xiti/1ère Position paru en septembre 2001 avec 30.1% du trafic généré, devant Yahoo!® (23,3%) et Voila (18,1%). Sa progression sera constante : 54,83% en septembre 2002, 64,19% en septembre 2003 et 73,98% en septembre 2004. Ce succès tient en premier lieu à la particularité inventée par ce moteur de recherche : la notion de pertinence basée sur la popularité des sites, l’équivalent de leur notoriété sur Internet.

 .

FOCUS : Lors du lancement des premiers liens sponsorisés, Altavista™ n'a pas averti ses utilisateurs de la vocation commerciale de tels liens. La sanction auprès de la communauté des internautes a été immédiate. Altavista™ s'est ainsi discrédité avant même que sa pertinence ne soit remise en question par la nouveauté insufflée par Google et son critère de popularité. Cette chute « historique » montre, si besoin en était, qu'il ne faut jamais chercher à tromper l'internaute.

c. La raison du succès de Google

En septembre 1998, deux autres pensionnaires de l'Université Standford, Larry Page et Sergey Brin, fondent la société Google et innovent grâce à leur système de classement original des pages Web.

Comme tout moteur de recherche, Google utilise un robot (ou spider, crawler - le crawl décrivant le mouvement d'une araignée sur la toile) pour parcourir systématiquement Internet à intervalles réguliers, dans le but de relever, étudier et répertorier (indexer) le contenu des pages Web. Ce robot est attentif à des critères prédéfinis. Il traite les résultats obtenus lors de son crawl à travers un algorithme qui détermine, par ordre de préférence, quelles sont les pages Web répondant le mieux à la requête d'un internaute. La recherche est formulée par des expressions clés composées d’un ou plusieurs mots-clés.

Si les moteurs de recherche se reposent jusque là sur la fréquence d'utilisation des expressions clés sur les pages Web, les créateurs de Google apportent un nouveau critère pour cibler et classer les pages Web correspondant à une demande particulière : la popularité (ou notoriété) d'un site Internet, symbolisée par le PageRank™.

La technologie PageRank™ examine à la fois le contenu et la  structure des liens d’une page Web et attribue une note de 0 à 10 en fonction de son importance sur Internet. Cette notoriété gagnée à travers la communauté internaute est synonyme de vote par les utilisateurs et donc de pertinence de l'information dans l'esprit originel des créateurs de Google

 Par rapport à ses concurrents, Google a pris le parti dès 1999 de ne proposer que de la recherche d’informations, au contraire de Yahoo® qui s’est peu à peu transformé en portail et a proposé de plus en plus de services (météo, actualités, cours de Bourse, etc.). En outre, Yahoo® s’est longtemps obstiné à conserver le mode annuaire pour le classement et la recherche des sites, privilégiant le surf sur Internet par catégorie plutôt que par mot-clé. Or, le modèle annuaire n’a jamais cessé de perdre en  vitesse au détriment du modèle « moteur de recherche » plébiscité par les internautes. Si la sobriété de son interface et sa

simplicité d’utilisation ont lancé sa réputation, Google a forgé sa réussite grâce à la pertinence et à la rapidité de ses résultats. Résultat : il est utilisé dans 4 recherches d'internautes sur 5 en France, et répond en moins d'une demi-seconde, aux requêtes des internautes, lesquelles sont désormais estimées à 250 millions par jour dans le monde entier.

Google™ a beaucoup misé sur le bouche à oreille pour se développer et n’a pas eu besoin de dépenser des sommes faramineuses dans la publicité. Sa situation dominante dans la plupart des pays, quasi-monopolistique en France, ne semble pas près de s’arrêter tant les services proposés par Google™ sont innovants et se démarquent de la concurrence : messagerie de 2 Go d’espace (Gmail), logiciel de recherche sur le bureau (Google™ Desktop), messagerie instantanée (Google™ Talk), logiciel de cartographie et de prises de vue satellites (Google™ Earth et Map), logiciel de retouches de photos (Picasa) et outil de création de blogs (Blogger).

Les          prochains         chantiers          de Google™ concernent les navigateurs, via un partenariat avec la fondation Mozilla, les télécommunications et notamment les communications internationales - dans le

but de concurrencer Skype -, voire aussi le développement de son propre système d’exploitation et de ses propres ordinateurs. Mieux, ces services spécifiques lui permettent de conserver une certaine pertinente en démontrant sa capacité à gérer toute l’information1. Sa pertinence reconnue par les internautes l'aide à jouer la carte de la diversification et ainsi, à conserver son hégémonie et la puissance de son image.

N'oublions pas que Google est populaire parce qu'il convient aux

internautes, dans la mesure où il satisfait la demande de ces derniers. Cependant, il pourrait être déserté du jour au lendemain par les internautes qui ont contribué à son succès si, par exemple, ce moteur de recherche     décidait            de         modifier           en profondeur son algorithme et de proposer

des résultats payants dans ses résultats naturels, avec le risque de perdre

objectivité et impartialité entre résultats  commerc iaux et naturels.

FOCUS : Si le PageRank™ reste un indice majeur pour mesurer la popularité d'un site Internet, il influe de moins en moins sur son positionnement dans les moteurs de recherche. Comme toute référence sur Internet, il a été la cible des hackers et on sait désormais le contourner, le dompter. Pourtant, le PageRank™ impose encore une forme de dictature, voire de psychose, dans le monde du référencement, qu'il convient de pondérer. Aujourd'hui, il est possible d'atteindre un bon positionnement dans les moteurs de recherche avec un PageRank™ de niveau 3 ou 4. La popularité dans Internet demeure plus importante que le PageRank™ lui-même.

d. Des concurrents suiveurs

Depuis sa naissance, Google a multiplié par mille le nombre de ses pages Web indexées, tout en gagnant progressivement en satisfaction auprès du public des internautes. Preuve de sa santé exceptionnelle, l'entreprise a annoncé un record de bénéfices au troisième trimestre 2005, avec un chiffre d'affaires global de 1,6 milliards de dollars, soit une hausse de 96% sur l'année, pour un résultat net de 381,2 millions de dollars. Selon les dernières données Nielsen/Netratings, 45% des recherches dans le monde ont été réalisées sur Google, soit deux fois plus que sur Yahoo! ® et quatre fois plus que sur MSN®.

Pour conserver son aura, Google doit veiller au respect de cette pertinence des résultats en peaufinant sans cesse son algorithme de recherche et de classement des pages Web. Or, il n'intervient pas dans les contenus des sites Internet. Sa valeur est uniquement fondée sur le savoir-faire d'un algorithme destiné à détecter les meilleurs talents du Web, en fonction des attentes des internautes formulées à travers des expressions clés. De plus, une étude américaine sur la fidélité des utilisateurs aux outils de recherche, rendue publique par Nielsen/Netratings en mars 2005, montrait que si les utilisateurs de Google étaient les plus fidèles du marché des moteurs de recherche, 6 sur 10 d'entre eux se servaient également des outils de ses deux principaux concurrents.

C'est de toute façon l'intérêt des entreprises et des institutions en quête de visibilité sur Internet d'être référencé dans les autres outils de recherche (annuaires, MSN® - qui gagne des parts de marché à défaut d'audience, etc.).

 Toutefois, les concurrents internationaux de Google sont essentiellement dans une position de « suiveurs ». Ils n'innovent pas et se contentent de copier le modèle, alors que

seule l'arrivée d'une technologie innovante pourrait contester

: les résultats l'hégémonie de Google. sous forme d'une carte  

FOCUS : La France fait preuve d'un réel dynamisme en matière d'outils de recherche. Travaillant autour de l'intuitivité, le moteur de recherche offre les services d'un annuaire avec des catégories et des termes associés aux mots-clés initialement tapés. Quant à , il s'attache à lier les pages Web par leur environnement sémantiq ue (connexe, complémentaire) en présentant les résultats sous forme d'une carte. Ces deux remarquables moteurs de recherche ne remportent toutefois pas un franc succès auprès des internautes.

2. Le référencement : un métier détourné de sa vocation originelle

a. Naissance d'un métier à la rencontre du marketing et de la technologie :  le référencement naturel

Pour une entreprise ou une institution, il ne suffit plus aujourd'hui d'être présent sur Internet, dont le nombre d'internautes approche le milliard dans le monde et dépasse les 25 millions en France. Il est devenu nécessaire d'exister parmi les 75 millions de sites recensés au mois d'octobre 2005 pour profiter de l'essor de l'e-commerce, dont le marché a rapporté 12 milliards d'euros de recettes en France en 2004 (croissance de 50% prévue en 2005). Internet est la plus grande bibliothèque du monde, et un site Internet, aussi complet, illustré et intéressant soit-il, n'est qu'un livre parmi d'autres.

La visibilité sur Internet est indissociable d'une présence dans les moteurs et des annuaires de recherche, première porte d'entrée sur le Web. Les outils de recherche génèrent environ 30 à 40% du trafic sur Internet en France, l'accès direct (favoris, lien indiqué dans un email, saisie directe de l'adresse) et les liens externes représentant chacun un peu moins d'un tiers de ce trafic. De plus, la moitié des utilisateurs d'Internet passent plus de 70% de leur temps de connexion à rechercher de l'information et la part de trafic apporté par les outils de recherche par rapport au trafic général sur Internet a augmenté de 12% en trois ans.

Selon une étude du baromètre XiTi/1ère Position effectuée en octobre 2004, plus de 80% des visites sur un site Internet réalisées depuis GoogleTM ont été générées à partir de sa première page des résultats naturels11, un peu plus de 10% à partir de la deuxième page de résultats naturels, et moins de 2% au-delà de la troisième page de résultats naturels.

Pour générer du trafic vers un site Internet via les moteurs de recherche, il est préférable de figurer parmi le triangle d'or de GoogleTM, c'est-à-dire dans les trois premiers rangs de sa première page de résultats, qui bénéficient de 100% de visibilité.

Pour générer du business à travers les moteurs de recherche, il faut non seulement mettre en relation des internautes avec les produits et services en adéquation avec leur demande, leurs attentes, c'est-à-dire créer un trafic ciblé à partir des requêtes des internautes, mais également de favoriser la transformation de cette visite en achat sur une boutique en ligne ou en prise de contact via un

                      Mouvement de l'oeil                             formulaire.

                      sur la 1ère page de GoogleTM

Cette étude du comportement et des usages des internautes associée à la compréhension du fonctionnement des moteurs de recherche dans le but de transformer une visite a donné naissance à un nouveau métier, à mi-chemin entre le marketing  et la technologie : le référencement naturel. 

Indépendant de toute transaction (financière ou autre) avec les moteurs de recherche, le référencement naturel intervient dans trois domaines :

-     la recherche des mots clés privilégiés par les internautes en fonction des objectifs d'une entreprise (ou d'une institution) et la mise en adéquation du contenu du site Internet avec ces mots-clés

-     la mise en conformité de la structure du site Internet, par le respect des standards du

Web en matière d'ergonomie, d'usabilité et d'accessibilité

-     la vie du site Internet : rafraîchissement des contenus, animation du site, échange de liens avec d'autres sites, etc. 

Fondé sur une veille permanente des nouveaux usages et de l'évolution des technologies, le référencement naturel consiste en un transfert de compétences au sein d'entreprises et d'institutions.

Suite au référencement naturel, le référencement payant dans les moteurs de recherche est apparu en France à partir de 2002. Il s'agit de liens commerciaux, positionnés à partir de la première page des résultats lorsque le mot-clé acheté figure dans la requête d'un internaute. Ces liens sont payants pour l'annonceur à chaque clic généré. Le coût du mot-clé au clic peut varier entre 0,05 € pour les enchères minimales sur des requêtes peu concurrentielles et 6 € pour un terme très générique comme « crédit », c'est-

à-dire très fréquemment tapé par les internautes. Ce coût est fonction d'un

système d'enchères auquel participent les annonceurs et n'est valable que pour un seul moteur de recherche à la fois. Aux Etats-Unis, le montant dépensé en 2004 pour l'achat d'expressions-clés dans le cadre de liens commerciaux (sponsorisés) était de 4 milliards de dollars contre 1 milliard deux ans plus tôt. 

Le référencement payant est complémentaire du référencement naturel, pour compenser un trafic ciblé déficient au lancement d'un site Internet, comme pour augmenter la visibilité lors d'opérations promotionnelles ou événementielles.

En revanche, le référencement naturel ambitionne une présence pérenne et gratuite dans les premières pages de résultats de tous les moteurs de recherche. C'est un élément fondateur  dans une stratégie de visibilité et d'acquisition de trafic ciblé sur Internet, qui dépasse le simple cadre d'une méthodologie vis-à-vis de l'algorithme des moteurs de recherche. Sa mission première est l'observation du comportement des internautes. Il ne faut surtout pas oublier que les liens sponsorisés (ou recherches commerciales) représentent 30% du trafic généré par les moteurs de recherche… contre 70% pour les résultats naturels !



Pourtant, le référencement naturel, au centre d'enjeux financiers importants et croissants, peut conduire à des dérives dont il faut prendre connaissance afin de réaliser les bons choix en matière de promotion on line.

b. Des solutions temporaires transformées en dérives

Durant la majeure partie des années 90, la première génération de sites Internet à vocation commerciale s'est contentée de mettre une page d'accueil, ou guère plus, dans le seul but d'être présent sur le Web naissant. La seconde génération de sites Internet est issue du clonage en ligne des plaquettes et documents des entreprises. La troisième génération de sites Internet est en train d'émerger. Elle utilise enfin les outils propres au média Internet pour toucher les différentes cibles des entreprises : clients, prospects, salariés, actionnaires, etc.

Apparu vers la fin des années 90, le métier du référencement propose, à l'origine, l'inscription dans les outils de recherche et l'optimisation technique des sites Internet. Au tournant de l'an 2000, pour répondre à l'urgence fortement exprimée par des

clients d'apparaître rapidement en tête des pages de résultats des moteurs de recherche, les référenceurs commencent à

privilégier une solution purement

technique. Cette astuce simple et

®                                                                                                                                              efficace devait seulement les

L'annuaire Yahoo! en octobre 1996 (extrait de )

déficiences des sites Internet de grandes entreprises en termes de contenus, en attendant que ceux-ci soient ultérieurement développés en adéquation avec l'identité et la stratégie commerciale de ses entreprises ou institutions clientes. Elle consiste à dupliquer les contenus déjà existants en densifiant la présence d'expressions clés. But avoué de la manœuvre : multiplier artificiellement la présence des pages Web d'un site sur Internet. Ce procédé est renforcé par l'ajout de liens (souvent cachés) vers les pages Web originelles du site Internet afin d'augmenter - toujours de manière artificielle - sa popularité sur Internet. Pour parfaire la méthode, on invente le cloaking, un moyen de détection technique qui détermine si le visiteur d'une page Web est un internaute ou un moteur de recherche. Si le visiteur est un moteur de recherche, on lui fournit une page optimisée à sa lecture, avec par exemple un grand nombre d'expressions clés répétés.

Cette astuce technique se décline sous diverses formes : pages satellites (doorway page ou pages aliasTM), sites miroirs (la copie conforme du site originel, uniquement prévue pour les moteurs de recherche mais pas pour les internautes). Son intention est claire :bombarder les moteurs de recherche de centaines, de milliers de pages artificielles, cachées, dans le but d'accroître l'indexation d'un site Internet. D'où la condamnation par les moteurs de cette pratique, à ranger dans la catégorie du spamdexing.

En dépit de leurs efforts, les moteurs de recherche ont longtemps éprouvé des difficultés à déceler le spamdexing. Efficaces sur le court terme, les pages satellites perdurent et se généralisent, plébiscitées par les éditeurs de sites Internet. L'effet sera pervers pour le métier du référencement.

Aujourd'hui, les éditeurs de sites Internet ont en effet souvent une vision réduite de l'action des référenceurs. Ils la résument trop souvent à une intervention purement technique.

Ils             considèrent      même   les référenceurs            comme             d'habiles manipulateurs            de     formules magiques (écrites en langage HTML1) capables de positionner leur site Internet au sommet des pages de recherche en dépit du bon sens. 

D'où le sentiment répandu que les référenceurs sont des sorciers, aux méthodes complexes, floues, voire obscures.

Ce constat est éloigné des fondements du référencement naturel, conçu à l'origine pour développer une stratégie innovante avec les utilisateurs et adaptée aux formidables outils offerts par le média Internet.

Pis, la solution de facilité des pages satellites a colporté l'idée que le référencement était la dernière des opérations à réaliser lors de la conception d'un site Internet. Or, c'est l'inverse : le référencement naturel doit être intégré en amont de cette conception, afin de construire le site Internet en fonction des expressions-clés particulières à l'identité et au secteur d'activité d'une entreprise.

Cet effet pervers des pages satellites a été d'autant plus ressenti en France que GoogleTM et sa pertinence disposent d'une position hégémonique dans notre pays.

Si nombre de référenceurs perpétuent encore la pratique des pages satellites - ou pages alias TM  -, les moteurs de recherche, et en particulier GoogleTM, ont ouvertement déclaré la guerre aux éditeurs de site Internet peu scrupuleux sur leurs méthodes de référencement naturel.

FOCUS : Si chaque Webmaster décidait de dupliquer ne serait-ce qu’une fois le contenu de ses sites Internet, GoogleTM ne devrait plus indexer 8 mais 16 milliards de pages Web. Avec, comme problème à la clé, le dimensionnement de ses serveurs pour gérer une telle masse d'informations, et donc le risque économique de devoir supporter financièrement cette duplication abusive de contenus. C'est l'une des raisons pour lesquelles GoogleTM veille au grain, outre le fait majeur que cette reproduction abusive des contenus dilue l'information et donc la pertinence de l'information pour l'utilisateur final.

c. Comment Google cherche à préserver sa notion de pertinence

 Comme l'a encore récemment démontré son refus de la course au nombre de pages Web indexées, Google demeure attaché à la qualité des pages Web plutôt qu'à leur quantité. Il refuse notamment le gonflement artificiel de sa base de données par les pages satellites (pages alias TM). En effet, ces pages représentent une menace de dilution de la pertinence pour l'utilisateur. elles trompent même l'internaute quand elles sont conçues pour répondre à des expressions clés sans proposer de contenu approprié.

Google ne s'est pas cantonné à condamner le spamdexing dans son ensemble à travers une charte éditoriale, décrivant clairement les recommandations à suivre par les éditeurs (administrateurs) de sites Internet. Ce spécialiste des technologies de recherche s'est donné comme priorité le développement de filtres permettant de détecter les méthodes frauduleuses de mise en valeur d'un site Internet. En particulier : Texte ou liens masqué(s), Mots clés répétés ou trompeurs, Contenu de page différent de la description Google,  Pages masquées (« cloaking »),

Redirection trompeuse,  Page satellite (« doorway »), Site ou pages répété(es).

Ces filtres s'avèrent de plus en plus efficaces au fil du temps. Après de multiples mises en garde, Google a sanctionné les sites Internet qui ne mettaient pas en application sa charte éditoriale par une mise sur liste noire (blacklistage), c'est-à-dire une exclusion des pages Web et des liens dans ses résultats ainsi qu'une mise à zéro du PageRank . Il incite dorénavant les utilisateurs à lui reporter les cas de spamdexing grâce à un formulaire en ligne

Etre blacklisté ou déréférencé par Google n'est pas irrévocable. Si un site blacklisté supprime toutes les techniques frauduleuses qu'il emploie et montre des signes de bonne

volonté en respectant les recommandations de Google, il peut réintégrer les pages de résultats de Google en quelques mois, voire en quelques semaines.

Le bon sens de

Google ne        s'est      pas      arrêté à cette mesure. Pour redonner toute son efficacité à la technologie PageRank, Google travaille en secret sur un outil de lutte contre le spamdexing : le Trust Rank©.

En mars 2005, Google a déposé de nombreux brevets auprès de l'USPTO (United States Patent and Trademark Office) portant sur l'amélioration de la classification des pages Web en fonction du sérieux de leur éditeur, de leur date de parution, ou encore, de la taille des articles.

Son but : créer un nouvel indice visant à définir la fiabilité de la source d'une information, à travers l'établissement d'une short list de « sites d’autorités ». Cette initiative est fondée sur les travaux de deux chercheurs de… l'université Standford (Zoltan Gyongyi et Hector GarciaMolina). Elle prendrait le nom de Trust Rank©, un terme récemment déposé par Google.

A l'origine, le Trust Rank© est destiné au service de dépêches Google News, pour distinguer les bloggers peu fiables du travail des journalistes professionnels. Il servirait également la lutte contre le spamdexing, en indiquant le degré de confiance accordé à une page Web, compris entre 0 (spam) et 1 (page de référence, garantie « saine » après une analyse manuelle réalisé par un humain). Par propagation et analyse des liens entre les pages, l'algorithme du Trust Rank© détermine si les autres pages Web sont également « saines » ou si, au contraire, elles sont une version de spam (pages satellites, etc.), en partant du principe que les pages « saines » pointent rarement vers des pages de spam.

Google réaffirme ainsi sa ligne de conduite, identique depuis ses débuts, et figurant comme le premier des dix points de sa philosophie : « rechercher l'intérêt de l'utilisateur, et le reste suivra ». C'est l'une des raisons pour lesquelles Google s'est toujours défendu de mettre en place des solutions de référencement XML, cette action étant considérée comme du spam.

Le comportement de l'internaute, libéré des contraintes spacio-temporelles de la vente et des approches commerciales directes par rapport au consommateur du monde physique, est au cœur de l'évolution du métier du référencement.

FOCUS : Rarement décrié, le référencement XML (ou trusted feed) apparaît comme une hérésie au regard du respect de l'internaute. Cette technique de référencement payant consiste à alimenter de manière automatisée des outils de recherche, le client soumettant les pages Web à référencer, en particulier les contenus difficiles à indexer de manière naturelle tels les bases de données. Cette forme légalisée de spam est notamment proposée par Voila et Yahoo® à l'insu de l'internaute, lequel n'est pas averti que les pages Web issues du trusted feed apparaissent dans les résultats naturels de ces outils de recherche alors qu'il s'agit d'un référencement payant (sous forme d'un coût au clic). En outre, le trusted feed ne fonctionne pas totalement, car Voila et Yahoo® éprouvent des difficultés à faire remonter les pages référencées par XML dans les résultats naturels.

Il n'existe qu'un seul cas de figure où le flux XML apporte une solution satisfaisante pour l'internaute et les clients : la soumission d'un catalogue produit dans l'espace marchand (shopping) d'un moteur de recherche. C'est le cas de l'expérience Froogle proposée par Google… qui existe encore en version beta parce que les utilisateurs n'ont pas été séduits.

3. L'internaute : le cœur de métier oublié du référencement

a. La prise de pouvoir de l'internaute et le respect de la Netiquette

Par son affranchissement des contraintes horaires, des frontières, de l’apparence physique, et même de l’obligation de se conformer à une et une seule identité, Internet a bouleversé la relation humaine. Il est devenu un outil de liberté pour l'être humain, au sens où Internet lui permet de ne jouer partout que le rôle qu'il souhaite maîtriser, en lui offrant de se retirer à tout moment. Mieux, « la démocratie fonctionne sur Internet », comme le souligne le quatrième point de la philosophie Google. De façon bien plus efficace que dans la vie réelle, serait-on tenter d'ajouter. Le succès phénoménal d'une entreprise comme Ebay, première plate-forme marchande en France, rappelle combien l'on peut fonder le succès d'une entreprise sur le respect de l'esprit communautaire d'Internet.

Tout le monde n'a pas immédiatement intégré cette culture de l'Internet, où les règles de la vie courante - et a fortiori les techniques du marketing traditionnel - ne peuvent s'appliquer, bien que l'on reste confronté à des êtres humains de l'autre côté de la machine.

Dès octobre 1995, face à l'émergence d'un réseau international, des spécialistes de la vie en réseau - « réseau » au sens humain du terme (sociologues, psychologues, etc.) - ont estimé nécessaires d'édicter des règles de savoir-vivre, dénuées de toute connotation religieuse, politique, culturelle ou sociale. Cette initiative - appelée Netiquette - était fondée sur l’idée que, sans un minimum d’entendement sur l’usage de l’Internet, cet outil ne serait plus utilisable et pourrait s’effondrer.

                                                                                                                                                              Comme      le      rappelle

l'introduction de la Netiquette, les premiers utilisateurs d'Internet avaient grandi avec ce réseau et étaient attentifs à la technique. Ils comprenaient la nature des échanges dans un environnement technologique. Au contraire du grand public, pour qui Internet a été rendu accessible à tout néophyte en matière de technologie grâce au

World Wide Web et à son langage originel, le HTML. La Netiquette s'est chargée d'apporter - avant l'heure ! - une synthèse du vécu de l'internaute, afin de lui éviter de tomber dans les pièges les plus courants, la finalité étant une exploitation harmonieuse des possibilités de communications offertes par Internet, sans encombrer le réseau ni gêner ses utilisateurs.

Les recommandations de la Netiquette n'ont pas vocation à réprimander l'utilisateur ou l'éditeur, mais à le préserver. Par exemple, elles donnaient déjà tous les éléments concernant la protection des mineurs sur Internet, bien avant que l'opinion publique ne s'en émeuve et n'amène le gouvernement français à rendre obligatoires les logiciels de filtrage et de contrôle parental. 

En ces heures où l'on s'inquiète de la protection de la vie privée, comment ne pas être sensible à ce condensé de bon sens : « A moins d'utiliser un outil de chiffrement (matériel ou logiciel), vous supposerez que le courrier sur l'Internet n'est pas sûr. Ne mettez jamais dans un message électronique quelque chose que vous ne mettriez pas sur une carte postale. »

Mêmes les recommandations les plus obsolètes en apparence ont encore leur raison d'être aujourd'hui. L'une d'entre elles incite à ne pas envoyer des fichiers de plus de 50 kilo-octets, indiquant au passage : « Soyez conscient de la longueur des messages que vous envoyez. ». Pourtant, l'envoi d'emails de plusieurs méga-octets provoque encore aujourd'hui des problèmes de messagerie électronique dans les sociétés, en particulier dans les connexions Internet nomades souvent développées en bas débit

(réceptions sur PDA, etc.).

En vertu de la configuration du média Internet, il ne faut jamais oublier que les conséquences d'un non-respect de la Netiquette sont rapides et incontrôlables. N'importe qui, quelles que soient ses qualités dans la vie réelle, peut être banni d'un forum et exclu avec l'impossibilité de se faire enregistrer et réintégrer s'il ne respecte pas les règles élémentaires de savoir-vivre sur Internet. 

La Netiquette recommande une intelligence d'usage, entre connaissances des réseaux informatiques et savoir-vivre en réseau humain. Elle est tout indiquée pour le référencement, à mi-chemin entre la technologie et le marketing. Comment d'ailleurs ne pas effectuer le parallèle entre l'exclusion d'un forum pour un internaute malgré ses qualités humaines dans la vie réelle et la mise sur liste noire de GoogleTM du site Internet d'une entreprise renommée pour ses produits ou services ?

Universelle et atemporelle, la Netiquette a posé les bases et les fondements de l'Internet, tant pour les utilisateurs, que pour les éditeurs de produits et de services sur Internet. Si personne ne se risque à déterminer quels seront les services de l'Internet dans trois ans, nous pouvons affirmer que les fondements même de vie sur Internet n'auront pas changé d'ici dix ans et qu’ils sont contenus dans l'esprit et la philosophie de l’inaltérable Netiquette.

Pour une entreprise qui souhaite développer du business sur Internet, s'imbiber de l'esprit et de la philosophie de la Netiquette est le terreau de la réussite sur Internet.

Pourtant, si Ebay et Google ont respectivement célébrés leurs 10 et 7 ans en septembre

2005, la Netiquette a fêté son dixième anniversaire un mois plus tard dans l'anonymat le plus complet. L'idée d'éthique sur l'usage d'Internet est pourtant récurrente depuis 1995. 

b. Netiquette, charte éditoriale de Google et LCEN : même combat

La charte éditoriale de Google repose sur les mêmes fondements que la Netiquette, c'està-dire des règles de savoir-vivre universelles destinées à satisfaire l'internaute, l'utilisateur final d'un moteur de recherche. Elle ambitionne également une exploitation harmonieuse des possibilités de communications offertes par Internet, sans encombrer le réseau ni gêner ses utilisateurs. En cas de non-respect de ces règles de bonne conduite, la conclusion est identique : sans un minimum d’entendement sur l’usage de l’Internet, cet outil ne serait plus utilisable et pourrait s’effondrer.

Adoptée en juin

20041, la Loi pour la

Confiance en l'Economie

Numérique (L.C.E.N) a accrédité le besoin de règles de bonne conduite sur         Internet.           Elle      a notamment renforcé les mentions obligatoires sur les sites de commerce électronique      et         la responsabilité       des vendeurs    (livraison, indication des noms et versions       du        logiciel effectuant la transaction financière, etc.). 

Le message envoyé par la L.C.E.N n'est pas nouveau : « rechercher l'intérêt de l'utilisateur, et le reste suivra ».

Pour le référencement, dont l'internaute est le cœur de métier, il devient nécessaire d'établir clairement un code de déontologie, inspiré de la Netiquette, de la charte éditoriale de Google et de la L.C.E.N. Pour pérenniser l'exercice de la profession aussi bien que l'usage d'Internet.

C'est l'un des trois buts de ce livre blanc sur le référencement : énoncer clairement ce qu’un référenceur peut faire et ce qu’il ne peut pas faire. Le second but est d'expliquer en détail comment le référencement naturel, s'il est intégré en amont de la conception d'un site Internet, est une solution performante et durable pour être visible sur Internet. Le référencement naturel demeure en effet l' indispensable socle au développement d'une stratégie globale sur Internet, définie en fonction des moyens humains et financiers, et de l'identité de l'entreprise. Le troisième but est d'anticiper l'évolution d'Internet et de donner des voies pour exploiter les outils spécifiques à ce média.

FOCUS :Les guidelines de Google

« Conseils concernant la qualité : Généralités » :

-        Concevez vos pages pour les utilisateurs, et non pour les moteurs de recherche. Ne trompez pas les utilisateurs en affichant un contenu pour les moteurs de recherche différent de celui qui leur est présenté (technique appelée « cloaking » ou masquage). 

-        Évitez les « astuces » destinées à améliorer le classement de votre site par les moteurs de recherche. Vous devriez en principe pouvoir expliquer en toute sérénité à un site Web concurrent les solutions que vous avez adoptées. Vous pouvez également vous poser les questions suivantes : ces solutions sont-elles une aide pour les utilisateurs ? Aurions-nous fait appel à ces techniques si les moteurs de recherche n'existaient pas ? 

-        Ne participez pas à des systèmes d'échanges de liens conçus pour améliorer artificiellement le classement PageRank de votre site. Évitez tout particulièrement les liens vers les polluposteurs ou les « voisinages douteux » sur le Web, car ces liens risqueraient d'avoir une incidence négative sur le classement de votre site. 

-        N'utilisez pas de programmes non agréés pour demander l'indexation de vos pages, vérifier votre classement, etc. Ces programmes consomment des ressources informatiques inutilement et constituent généralement une infraction à nos conditions d'utilisation. Google déconseille l'emploi de produits tels que WebPosition Gold™, qui envoient des requêtes automatiques ou programmées à Google. 

« Conseils concernant la qualité : Recommandations précises » :

-        Évitez le texte ou les liens cachés. 

-        N'utilisez pas de pages masquées (« cloaking ») ou de redirections trompeuses.  - N'envoyez pas de requêtes automatiques à Google.

-        Google s'efforce d'apporter des solutions évolutives et automatisées aux problèmes plutôt que de les traiter au cas par cas. Ne multipliez pas les termes sans rapport avec le contenu réel de votre site. 

-        Ne créez pas plusieurs pages, sous-domaines ou domaines présentant un contenu en

grande partie identique. 

-        Évitez les pages satellites (« doorway ») créées exclusivement pour les robots de moteur de recherche ou d'autres solutions telles que les programmes d'affiliation sans véritable contenu informatif. 

Nous abordons ici les techniques de tromperie ou de manipulation les plus courantes. Google est cependant prêt à réagir à toute autre pratique malhonnête (tromper les utilisateurs en enregistrant une version volontairement erronée du nom de sites Web populaires, par exemple). Ne déduisez pas que les pratiques trompeuses non mentionnées sur cette page sont autorisées par Google. Les administrateurs de sites Web qui s'efforcent de respecter les principes énumérés sur cette page offriront à leurs utilisateurs une navigation plus agréable et obtiendront pour leur site un meilleur classement que ceux qui recherchent en permanence les failles de notre système.

4. Définition d'un code de déontologie pour le référencement

Le référencement naturel est l'art de créer, à partir des résultats naturels des moteurs de recherche, un trafic ciblé, de manière gratuite et pérenne, tout en respectant les internautes et le fonctionnement des moteurs de recherche. Il consiste donc :



-     à présenter aux internautes et aux moteurs de recherche un site Internet conforme d’une part à leurs caractéristiques de navigation, et d’autre part à leurs critères de collecte et de classement des pages Web.

-     à développer la popularité d’un site Internet aussi bien dans l'intérêt des internautes que dans celui des moteurs de recherche.

Ne se limitant pas à une optimisation du site Internet pour les pages de résultats naturels des moteurs de recherche, le référencement naturel est une démarche full webmarketing qui vise à augmenter de manière significative le taux de transformation d’un site Internet (formulaire, contact ou vente en ligne) en optimisant ce dernier selon les attentes des internautes.

Face aux dérives du métier du référencement, il devient impératif de respecter les 12 recommandations suivantes, inspirées de la Netiquette, des conseils de GoogleTM et de la Loi sur la Confiance en l'Economie Numérique :

1.    Ne pas envoyer d’emails non sollicités (spam) pour prospecter et démarcher des  clients, sauf consentement explicite pour recevoir des offres commerciales.

2.    Ne pas promettre de garanties de positionnement dans les moteurs de recherche alors que cet engagement est matériellement impossible.

3.    Tenir à disposition des clients un document présentant la méthodologie utilisée de manière transparente, tant sur ses atouts que sur ses contraintes.

4.    Ne pas utiliser, ni prescrire d’outils ou services pour augmenter de manière artificielle la popularité d’un site web.

5.    Faire la distinction entre le référencement obtenu par le trafic généré de manière naturelle par les moteurs de recherche et le référencement obtenu de manière payante (par le référencement payant) dans l'utilisation des budgets du client

6.    Ne pas utiliser, ni prescrire la technique de pages satellites et d’une manière générale de duplication de contenus sur un ou plusieurs noms de domaines (appelés « domaines parallèles »).

7.    Ne pas cacher du texte et des liens dans les pages d’un site à référencer.

8.    Ne pas utiliser de technique visant à tromper le moteur sur le contenu réel d’un site (cloaking) ni à utiliser de redirections trompeuses pour les utilisateurs.

9.    Ne pas positionner un site Internet sur un mot-clé sans rapport avec le contenu réel du site.

10.   Ne pas nuire au référencement d’un site concurrent pour le compte d’un client et ne pas utiliser comme mots clés les noms de marques déposées de sites concurrents.

11.   Ne pas utiliser d'outils ou services pour augmenter le trafic à travers des clics générés de manière artificielle sur un site Internet.

12.   Ne pas placer de liens, à l'insu du client, dans ses pages Web pour augmenter la popularité d'un autre site Internet que celui du client.

2èmepartie : Le référencement naturel, dans l'intérêt conjugué des internauteset des moteurs de recherche

1. Pourquoi intégrer le Référencement naturel en amont d'un projet de site Internet

a. L'art de créer du trafic ciblé

Le référencement consiste à mettre en relation un site Internet traitant spécifiquement d'une ou plusieurs thématiques et un internaute en recherche active de cette information sur un moteur de recherche.

Les expressions clés exprimées par les internautes assurent la liaison entre le site Internet (des produits ou des services) et l'internaute (les consommateurs). Actuellement, si moins d'un tiers des requêtes est effectué avec un seul mot-clé, plus de la moitié des requêtes est affinée par l'usage de deux ou trois mots clés dans les expressions clés saisies par les internautes.

Au centre de toute stratégie de référencement, les expressions clés doivent être ciblées avec attention. Mal sélectionnées, elles créent du trafic non ciblé à perte et donnent une mauvaise image du site à l'internaute en créant une frustration chez l’utilisateur. Bien déterminées, elles disposent d'un pouvoir de communication évident sur l'internaute et ont un impact fondamental dans la transformation des visiteurs en acheteurs ou prospects potentiels.

En amont de toute conception de site Internet, on étudie les expressions clés à partir desquelles on construira les pages Web correspondant à la demande et au besoin réel des internautes. Ces expressions clés précisent les centres d'intérêt de l'internaute. Elles induisent ainsi le sens de parcours recherché par l'internaute dans un site Internet, ainsi que les contenus et services à proposer en fonction de la demande réelle des utilisateurs.

Certes, des outils de suggestions d'expressions clés, proposés par Overture® ou GoogleTM Adwords, défrichent cette étude sémantique. Toutefois, appréhender les habitudes et les désirs des internautes à travers le langage exprimé dans les moteurs de recherche requiert une indispensable expertise, tant dans l'agence de référencement que chez son client.

D'une part, cette expertise s'appuie sur des éléments propres à la sémantique :

ajustement entre le vocabulaire des métiers et celui des internautes, choix du singulier/pluriel

ou des accents, composition d'expression, mode de construction d'une recherche chez l'internaute, etc. En outre, il n'est pas possible de communiquer de la même manière sur Internet qu'à la télévision ou dans la presse. Nombre de marketeurs pensent encore - à tort - que c’est à l’univers d'Internet (moteurs, internautes..) de s’adapter !

D'autre part, cette expertise repose sur des notions propres au marketing : identification de l'objectif réel du site - informer, vendre, etc. -, stratégie de communication de l'entreprise, étude de la concurrence et des expressions clés sur lesquelles elle est positionnée dans les moteurs de recherche, justification des expressions clés par rapport à l'activité de l'entreprise, évolution du comportement des internautes, etc.

Ce travail consistant à analyser le comportement des internautes à travers les expressions clés utilisées pour rechercher une information précise s'appelle le keyword marketing. En d'autres termes, il consiste en une étude de marché en ligne, réalisée en temps quasi-réel et avec une remarquable précision. 

Le keyword marketing sert à déterminer la structure du site Internet et les axes pour développer des contenus en ligne . Il génère ainsi un trafic ciblé, en positionnant un site Internet sur des expressions clés propres à l'activité d'une entreprise (ou d'une institution) et traitées de manière spécifique et correcte dans les contenus pour satisfaire l'attente de l'internaute.

Une fois ces expressions clés déterminées, il faut les utiliser dans le site Internet en répondant à deux conditions étroitement liées : satisfaire les attentes des internautes en matière d'usage ("usabilité" et ergonomie d'un site Internet) et comprendre les modes de lecture des moteurs de recherche (accessibilité d'un site Internet). Sans jamais s'écarter de l'objectif visé : créer du trafic ciblé et utile. 

C'est pourquoi il est indispensable d’utiliser des outils de mesure d’audience pour pouvoir analyser les expressions clés tapées, les taux de visites à 1 page, les durées des consultations, le nombre de pages consultées… et ainsi établir les indicateurs de mesure du retour sur investissement.

L'enjeu n'est pas de créer du trafic en termes de volume.

Cette erreur a déjà été manifeste à l’époque de la dérive de la bulle Internet, au moment où l'on a valorisé les sites en fonction de la quantité de visiteurs, et non de leur qualité. Mieux vaut un site avec moins de trafic et plus de

transformation, qu’un site à fort trafic qui ne transforme pas ses visites en raison d'un manque de ciblage des internautes. 

Dans cet ordre d'idées,  une erreur récurrente consiste à  choisir dès le départ des expressions clés trop génériques dans un travail de référencement. Or, plus les mots clés sont ciblés, plus ils transforment une visite en achat ou contact. En outre, travailler sur des termes génériques reste l'apanage de sites disposant de la légitimité à se positionner au niveau national, notamment en raison des coûts engendrés par une telle opération. Exemple caractéristique : un mot-clé tel qu'« automobile » n'apportera pas de trafic ciblé à un modeste concessionnaire de Province, qui n'aura de toute façon pas les moyens humains pour traiter des demandes d’envergure nationale.

Il devient aujourd'hui stratégique pour une entreprise d'intégrer le référencement naturel en amont de la conception d'un site Internet. Cette décision donne une dimension nouvelle au rayonnement du site auprès des internautes, puisqu'elle influence directement le choix des contenus et donc la qualité du trafic ciblé généré.

FOCUS : L’outil de suggestions d'expressions clés d’Overture® se révèle de plus en plus imprécis. Victime de son succès, il donne des résultats essentiellement biaisés par les outils de mesure du positionnement, qui simulent des requêtes et modifient le volume réel des requêtes tapées par les internautes. Il sert à donner une tendance, laquelle reste à conforter par l’analyse des résultats du trafic réellement généré, des stratégies des concurrents et de l’évolution des usages des mots-clés.

b. Accessibilité et référencement naturel : mêmes valeurs

En 1994, le Word Wide Web Consortium (W3C) est créé par Tim Berners-Lee. Son objectif est de préserver les échanges sur Internet, et donc la compréhension de l'originel HTML et de ses langages dérivés (XHTML, XML, CSS, etc.) par toutes les machines connectées à Internet.

Le Consortium W3C émet des directives ou recommandations , visant à rendre le contenu des pages Web plus accessible à tous les internautes, indépendamment du navigateur Web et du système d'exploitation (PC, Macintosh, etc.), et quelques soient les contingences imposées par l'environnement d'utilisation (lieu bruyant, sur- ou sous-éclairé, besoin de garder les mains libres, etc.). L'accessibilité est souvent considérée comme destinée aux seules personnes handicapées ou apparaît comme défendue par les référenceurs uniquement pour des raisons démagogiques. Or, sa mise en pratique permet à un site Internet de retransmettre la même information à tous les internautes, quel que soit leur équipement, leur type de connexion, leur habitude de surf, leur capacité visuelle… 

L'accessibilité impose essentiellement la séparation du fond et de la forme, c'est-àdire du contenu d'un site Internet et de son embellissement. Elle conduit à une simplification et un allégement du code informatique des pages Web dans le but d'augmenter le potentiel d'internautes           d'un      site Internet.     C'est     pourquoi, logiquement,           les        normes d'accessibilité   sont      reconnues        en         priorité             par       les moteurs de recherche et sont            garantes d'une indexation de l'ensemble des contenus d'un site Internet. Certaines normes d'accessibilité influent même sur le positionnement d'un site Internet dans les résultats naturels d'un moteur de recherche.

Par exemple, la balise <TITLE>, dont le contenu désigne le titre d'une page Web, figure parmi les éléments plus influents pour positionner une page Web par rapport à un mot-clé. De même, la place du mot-clé dans la balise est d'autant plus déterminante qu'elle se situe en tête de balise. Les moteurs de recherche accordent également une importance de plus en plus significative aux autres balises de mise en forme du texte dans les pages Web, intitulées <H1>,

<H2>… jusqu'à <H6>. Ils testent ainsi la position et la densité des expressions clés au sein des termes qui composent ces balises et leur affectent une importance décroissante de <H1> à <H6>. Les balises <H> permettent en outre la structuration et la hiérarchisation de l’information.

Autre exemple : l'attribut ALT="" propose une alternative textuelle à une image. Elle est capitale pour les internautes comme les moteurs de recherche, car elles leur donnent la capacité d'interpréter une image. Elle ne doit toutefois pas être détournée de sa fonction.

Le développement de l'accessibilité - le développement "durable" - est préconisé dans le référencement naturel dans l'intérêt conjugué des internautes et des moteurs de recherche.

FOCUS : En  France, il existe une Labellisation de l'accessibilité d'un site Internet, Label Accessiweb, dont les 92 points de contrôle pour un niveau Or (ou AAA) s'appuient sur les Web Content Accessibility Guidelines (WCAG). Notre entreprise, 1ère Position, sera l'une des premières agences de référencement à posséder un expert Accessiweb pour l'évaluation de site Internet, comme pour les offres de refonte ou remaniement de site.

c. Usabilité : fidéliser les internautes

Après avoir capté l'internaute à travers les moteurs de recherche, un site Internet doit le fidéliser en répondant à ses attentes, selon quatre axes : la pertinence éditoriale du contenu et sa fréquence de mise à jour, le confort de navigation, l'apport d'informations personnalisées et le développement du sentiment communautaire. 

La pertinence éditoriale du contenu d'un site Internet et de l'information divulguée doit parfaitement répondre à la requête de l'internaute. Il n'est pas rare que l'expression même de la requête (exemple : « économie de la France ») ne soit absolument pas mentionnée dans le texte d'une page Web classée dans les premières places d'un moteur de recherche . Une fois l'information correctement développée en fonction du mot-clé sur lequel on désire la positionner, il est nécessaire de la mettre en valeur face à des visiteurs pressés, utilisant une lecture de balayage dans 4 cas sur 5. C'est pourquoi, par exemple, il est primordial de mettre en caractère gras les expressions clés prioritaires pour l'internaute. Enfin, la fréquence de rafraîchissement (ou mise à jour) d'un site Internet est l'élément le plus influent sur la fidélisation des visiteurs, d'autant plus qu'elle accélère la fréquence de passage du robot d'un moteur de recherche32.

La fatigue entraînée par la lecture à l'écran perturbe la compréhension intellectuelle des messages véhiculés par un site

Internet. Il devient alors précieux, pour conserver son lectorat, d'installer un confort de navigation pour l'internaute à travers l'ergonomie du site Internet. La lisibilité d'une page Web passe en premier lieu par des évidences, loin d'être rigoureusement appliquées : éviter le défilement de pages longues, respecter les standards de lecture (tel

                                                                                                                          qu'un lien hypertexte non visité est de

couleur bleue, et devient violet après usage), etc. Ensuite, l'esthétisme du site Internet doit être agréable, sobre et professionnel. Il n'est pas nécessaire d'investir des sommes astronomiques dans des créations artistiques trop originales, en particulier dans la technologie Flash, dont la richesse créative est aussi source de zapping dans la population internaute. C'est d'ailleurs un étonnant paradoxe : plus un site est tourné vers le grand public, plus il déploie d'efforts de séduction, et plus ces efforts se traduisent par l'ajout d'artifices déroutants pour l'utilisateur. L’exemple le plus marquant est constitué par les pages de pré-accueil composées d’animation qui, outre le fait qu’elles empêchent l’indexation du site par les moteurs, altèrent la rapidité de navigation des internautes. D’une manière générale, le Flash est un format très intéressant pour mettre en valeur de manière esthétique des informations ou des photos. Il faut cependant l’utiliser si et seulement s'il apporte une valeur ajoutée significative à la compréhension d’un message, d’un service ou d’un produit. Les sites entièrement réalisés en Flash sont à bannir dans la majorité des cas. Enfin, les fonctionnalités interactives donnent aux internautes le sentiment de conserver la main mise dans la consultation du site Internet. 

L'apport d'informations personnalisées entretient le rapport avec l'internaute. Il doit absolument se dérouler dans un contexte ou sur une période clairement définis. L'email et la newsletter sont en effet d'excellents outils de promotion, mais leur image a été ternie par les abus du spam. Par exemple, un internaute est intéressé par recevoir des promotions sur certaines destinations particulières durant la préparation d'un voyage. Une fois sa décision entérinée, il se sent agressé par ces offres. D'où l'idée de proposer une newsletter sur une période clairement déterminée dans le temps et validée selon le mode de l'opt-in : l’internaute exprime de manière délibérée et consciente son souhait de recevoir une newsletter et ne doit pas être trompé par des cases cochées d'avance au sein d’un formulaire d’inscription.

Dernier domaine majeur des attentes de l'internaute : le développement du sentiment communautaire. En rendant la technologie accessible aux néophytes, Internet a favorisé l'apparition de communautés ou de groupes sociaux virtuels liés par l'usage d'un produit (ou d'un service) ou le partage de valeurs réciproques.

Un site Internet doit devenir un espace d'expression que l’internaute peut s’approprier selon ses besoins :

utilisateurs d'un produit, réseaux professionnels de networking, communautés d’intérêt commun. Grâce à ces moyens d'expression, l’internaute s’impose comme un acteur du site Internet, et non plus un simple spectateur. Cela explique notamment l’ampleur du phénomène des blogs. Tout développement du sentiment communautaire conforme aux attentes des internautes incite les visiteurs à mettre le site Internet dans leurs favoris et à en parler autour d'eux. Ce fort impact sur le bouche à oreille devient un outil supplémentaire pour générer du trafic gratuitement en invitant les internautes à devenir les meilleurs porte-paroles du site Internet.

2. Le référencement naturel, une solution durable et performante

a. Gains et intérêts du référencement naturel

 Le référencement naturel représente, selon les sites, entre 20% et 40% du trafic global d’un site Internet ! Le trafic généré à travers les résultats naturels des moteurs est gratuit. Il permet de toucher directement les internautes lors d’une recherche d’information sur Internet, et donc des personnes qui ne seraient pas venues d'emblée sur le site d'une entreprise ou d'une institution. 

Le référencement naturel est un outil de recrutement de prospects qualifiés, qui fonctionne

7 jours sur 7 et 24h sur 24h, tout au long du cycle de vie d'un site Internet. Il redonne le pouvoir du référencement à l'éditeur de site Internet. En effet, celui-ci n'est pas dépendant d'une solution payante comme l’achat de mots clés à travers les liens sponsorisés. La visibilité obtenue grâce à ce type de référencement payant dépend directement du budget engagé et s’arrête immédiatement dès la fin de la campagne. A l’opposé de la démarche naturelle, le spamdexing, quant à lui, rend l'éditeur de site Internet otage du référenceur. Les noms de domaines ou pages satellites spécialement créés appartiennent aux agences de référencement. Si cette prestation est interrompue, le trafic qu'elle génère est automatiquement coupé. Le référencement d'un site Internet doit appartenir au client, et non pas à l'agence de référencement. C'est le cas de la démarche de référencement naturel abordée dans ce livre blanc, qui vise à un transfert de compétences restant pour toujours acquises au client.

Intégré en amont de la conception d'un site Internet, le référencement naturel réduit les coûts d'élaboration en les mutualisant avec le budget du développement du site. Le gain n'est pas uniquement financier. Le site Internet est directement opérationnel tout en bénéficiant d'un temps de conception réduit. En outre, son contenu est réalisé en cohérence avec sa cible, à travers une stratégie d’expressions clés appliquée dès l'origine du projet. Le référencement naturel oriente les décisions au niveau des choix éditoriaux du site Internet, lesquels sont destinés à satisfaire les visiteurs, et non le propre plaisir des concepteurs ou des décisionnaires du projet Internet. Il génère un trafic ciblé qui, une fois amorcé, dure tout au long de la vie d'un site Internet. Il offre surtout des coûts d'acquisition au clic les plus bas du marché et qui décroissent au fil du temps.

 Enfin, et comme pour toutes les actions de promotion sur Internet, l'efficacité et le retour sur investissement du référencement naturel est aisément quantifiable via des outils de mesure d’audience tel que XiTi. Aucune place n'est laissée au hasard dans le référencement naturel, qui étudie aussi bien les expressions clés tapées pour trouver une information ou le fonctionnement des moteurs de recherche, que les origines du trafic d'un site et le comportement des internautes lors des visites. 

FOCUS : En octobre 2005, lors d'une étude réalisée sur un échantillon de 400 sites Internet, XiTi a constaté une progression régulière et forte du poids des moteurs de recherche dans le trafic naturel, comme le montre les résultats suivants :

Part des modes d'accès naturels aux sites InternetJanvier 2004Octobre 2005

                                           Accès direct                                                                    62%                                  57%

                                    Liens                                                                        19%                           18%

                                                  Moteurs de recherche                                                  19%                                        25%

Sur les sites d'e-commerce, 7 visites sur 10 via les moteurs de recherche proviennent des résultats naturels, les 3 autres étant activées par le référencement payant. Si les liens sponsorisés ont été adoptés par les annonceurs et les internautes, la logique d'optimisation du référencement naturel reste privilégiée par les sites marchands, qui ne sont pas dans ce cas systématiquement obligés de payer  pour être référencé :

Pour les 10 premiers mois, part du…Outils de rechercheLiens sponsorisés



                                                Tous secteurs confondus                                                   39,9%                                  60,1%

                                           E-commerce                                                                       28,3%                         71,7%

                                  Tourisme                                                                     44,7%              55,3%

                                  Finance                                                             33%                           67%     

Enfin, toujours selon cette étude de XiTi, les visites effectuées via les résultats naturels sont moins fugitives que celles réalisées par les liens sponsorisés, tant au niveau de la durée qu'au nombre de pages vues.

b. Inconvénients du référencement naturel

On relève trois inconvénients majeurs pour le référencement naturel, pas nécessairement incontournables.

Le référencement na turel ne produit pas de résultats immédiats. Tout site nouveau peut attendre plusieurs mois avant que son contenu ne commence à être aspiré par les robots des moteurs de recherche. La fréquence de rafraîchissement des moteurs de recherche reste propre à chaque outil et demeure fonction de sa charge de travail et de sa file d’attente. Il faut cependant noter que les délais de prise en compte d'un nouveau site Internet ont diminué. Les célèbres GoogleTM Dance n'existent plus comme auparavant. GoogleTM est désormais entré dans une logique de référencement en continu. En outre, il existe aussi des solutions en matière de référencement naturel pour favoriser la prise en compte de nouveaux contenus, même en cas de changement de noms de domaine. Le référencement payant peut également compenser cet éventuel manque de trafic ciblé au démarrage ou au lancement de la nouvelle version d'un site en attendant que le trafic naturel vienne prendre le relais. Un travail sur le rafraîchissement régulier des contenus et un travail sur la popularité d'un site Internet permettent de réduire ces délais et de favoriser une indexation plus rapide du site.

Le référencement naturel possède une influence moindre sur les mots clés très génériques appartenant à des secteurs d'activités extrêmement concurrentiels (tourisme, immobilier, etc.). Pour être en mesure de générer du trafic naturel sur des expressions génériques, le site doit justifier d’une légitimité importante, récompensée par une popularité importante dans le secteur visé. Dans tous les cas, la règle est de se focaliser sur les mots clés ciblés décrivant l’activité du site le plus précisément possible, car plus ils sont ciblés, plus ils transforment la visite en achat ou contact. Un positionnement sur des termes génériques demande plus d’effort, plus de travail, pour des transformations plus faibles, comme déjà indiqué précédemment. 

Enfin, le référencement naturel impose des contraintes de réalisation, dans le choix des technologies et la méthode de développement. Si le choix des mots-clés conditionne la réussite commerciale d’un site Internet, c’est bien la structure technique du site Internet qui détermine son positionnement dans les pages de résultats naturels. Toutes les technologies ne sont pas en effet égales devant les moteurs de recherche. Le choix de la technologie ne doit pas être vécu comme une fatalité, mais comme une opportunité pour se rapprocher des internautes. Il faut relativiser les modifications nécessaires à un site déjà existant. Par exemple, les sites Internet développés en ASP (langage Microsoft©) et PHP (langage libre) sont les plus faciles à optimiser avec le référencement naturel, et la présentation originale des pages Web est respectée. En revanche, les sites développés dans les (onéreuses) solutions Broadvision©, Vignette© et Lotus© compliquent la mise en place d’un site engine ready.

Evidemment, les contraintes de réalisation sont réduites à leur plus simple expression si, comme nous le préconisons, le référencement naturel est considéré en amont d'un projet Internet, lors de sa conception ou de sa refonte.

3èmepartie : Aller au-delà du référencement éthique et naturel, ou commentrendre un business modèle attractif pour l'internaute

1. Une démarche de WebMarketing innovante : le permission marketing

Dans quelques années, avec l'évolution du réseau en matière d'usages, le référencement naturel sera considéré comme l'ancêtre du permission marketing sur Internet.

Lorsque l'internaute est en recherche active d'information, et que l'on satisfait sa demande en l'entraînant vers un site commercial ou institutionnel via les moteurs de recherche, cette action n'est pas subie comme une forme d'intrusion ou de publicité non sollicitée. Sur le principe, le référencement naturel requiert de la part de l'internaute - un consommateur potentiel - l'autorisation de le mettre en relation avec une marque capable de satisfaire son désir du moment. Cela caractérise le permission marketing, dont le rôle est d'adapter l'offre à la demande avec le consentement actif de l'internaute. Le net linking, l'affiliation et la bannière publicitaire sont d'autres moyens de recruter une audience ciblée sur le mode du permission marketing, puisque l'internaute est libre de cliquer ou non sur un lien.

Comme l'a constaté à ses dépens une personnalité dominante dans le paysage politique français, le permission marketing est la règle sur Internet. Dans le cadre d'une campagne d'emailing organisée par son parti politique, cette personnalité a envoyé deux millions de messages électroniques à des internautes dans le but d'attirer de nouveaux adhérents. Même si ce courrier électronique n'était pas de nature commerciale, il a été ressenti comme du spam par la communauté des internautes. Résultat : la campagne d'e-mailing a été rapidement suspendue et cette personnalité se retrouve, par le jeu d'une popularité voulue par la communauté internaute, associé au nom d'Iznogoud dans les résultats des pages de recherche dans GoogleTM.

Ce cas médiatique rappelle combien Internet a donné un pouvoir inédit au citoyen et au consommateur. En matière de Webmarketing, l'entreprise s'adresse à un acteur-citoyen et un consomm'acteur, qui peut compter sur le soutien actif d'une authentique communauté, comme l'a montré dès avril 2001 une campagne contre une multinationale française dans le domaine de l'alimentaire.

Ce bouleversement empêche de transposer les règles traditionnelles du marketing sur

Internet.

D'une part, la nouvelle génération n'est plus sensible au bombardement publicitaire actuel, représentant 4000 messages commerciaux par jour, soit un nombre de 350 000 de la naissance à l'âge de 18 ans. Cette agressivité visuelle, ce harcèlement du marketing traditionnel n'est plus recevable par des adolescents élevés aux valeurs véhiculées par les jeux vidéo et Internet : partage, échange, instantanéité, gratuité39.

Ce dernier élément est même fondateur dans la mentalité des internautes. La gratuité, forte de son succès dans la presse écrite seulement trois ans après son irruption dans le paysage français, doit inspirer l'état d'esprit du Webmarketing, lequel peut se résumer de cette façon : « je vous offre quelque chose (l'information) et je me permets ensuite de vous proposer quelque chose à acheter (la publicité) ». La publicité doit être à l'image de son ancêtre, le premier bandeau publicitaire apparu en octobre 1994 sur le site Internet du magazine de référence de la cyberculture Hotwired : interactive, ludique, bien intégrée au contenu, permettant d'étudier les attentes de l'internaute… sans être source de mécontentement de sa part. 

correspondent bien aux aspirations légitimes  Par exemple, les capacités du rich média des internautes tout en offrant des solutions de traçabilité et d'étude comportementale intéressantes aux entreprises.

D'autre part, les marketeurs ont suggéré jusqu'à présent d'envoyer des messages (offres, services) sans demander leur avis aux gens, à l'exemple du support papier, qui représente actuellement 40 kilos de prospectus par an et par foyer en France. Différence essentielle avec la pollution des boîtes de courrier électronique : le spam arrive directement chez vous, tandis que le prospectus arrive dans la boîte aux lettres, sans entrer dans notre domicile, sauf si on le désire. Les annonceurs commencent seulement à réaliser qu'un trop grand comportement intrusif dans le parcours des internautes a un effet néfaste sur leur publicité, alors que le spam a déjà provoqué une profonde exaspération dans la population internaute. A tel point que l'e-mailing (application sur Internet du prospectus) et la newsletter, qui sont pourtant d'excellents outils de promotion, sont aujourd'hui délaissés. L'efficacité de l'e-mailing devient même enrayée par la technologie.

Selon une étude de Return Path, 1 courrier électronique sur 5 envoyé dans le cadre de campagnes de marketing serait bloqué par les fournisseurs d'accès à Internet et les services de webmail, car assimilé à du spam. Les taux de refus varient de 1 à 54% des courriels selon les campagnes et de 8 à 39% selon les fournisseurs d'accès et les webmails.

La solution réside dans le permission marketing, qui avance à l'encontre du marketing traditionnel. Cette démarche représente l'avenir de la publicité sur Internet face à une communauté rôdée aux discours commerciaux idéalisant une marque. L'idée est de transformer le consommateur en acteur de la publicité.

Certes, si l'on demande l'autorisation à son prospect avant de le contacter, sur la manière de le contacter comme sur le type de produits à lui envoyer, le contact est plus long et délicat  à établir. Il bénéficiera en revanche d'une meilleure solidité dans le temps. De plus, ce contact sera facile à établir pour les entreprises qui se lanceront les premières sur les terrains du permission marketing. Celles-ci prendront un avantage décisif sur leurs concurrentes et bénéficieront, comme GoogleTM, EbayTM et AmazonTM de la prime à la primauté récurrente sur Internet : la première entreprise pertinente sur son secteur sur Internet prend un ascendant considérable sur les autres. En outre, pour l'internaute, il n'est plus possible de faire machine arrière lorsque celui-ci a goûté à la puissance d'une relation basée sur la confiance, l'accord et l'autorisation. 

La publicité sur Internet est promise à un bel avenir. Elle représente déjà 5% des budgets investis par les annonceurs, tous médias confondus, au premier semestre 2005 et concerne 900 entreprises. Ce marché devrait doubler au niveau mondial d'ici 2010 pour atteindre 19 milliards de dollars. Il reflète l'intérêt des gens pour le média Internet, auquel les internautes en France consacrent près de 4 heures supplémentaires par mois par rapport à l'année dernière, et auquel 9 millions de foyers étaient connectés au troisième trimestre 2005.

Pour toucher le consomm'acteur, c'est-à-dire pour transformer le consommateur en acteur de la relation avec l’entreprise, il faut d'abord s'appliquer à bien utiliser les nouveaux outils interactifs du média Internet et à développer les usages communautaires.

2. Etre en adéquation avec les nouveaux usages communautaires : Blogs, Wikis,Forums, Fils RSS et référencement naturel ?

Les nouveaux outils communautaires possèdent des intérêts convergents avec le référencement naturel.

Moyen de collecter les informations se rapportant à un thème particulier, le fil RSS génère une audience fidèle. Les Foires aux Questions, alimentées par la curiosité des internautes, sont également prisées et soulagent le travail d'une entreprise en interne. Quant aux Forums et aux Wikis, ils donnent la main - plus que la parole - aux internautes et les laissent s'approprier une marque.

Dans cette volonté de construire une marque avec le concours des internautes, le Blog figure en pôle-position des outils interactifs à mettre en place. Le carnet de notes personnelles connaît une forte expansion dans l'univers Internet : 80 000 nouveaux blogs sont créés chaque jour, 13% d'entre eux sont actualisés chaque semaine, on a franchi la barre symbolique des 20 millions de blogs le 23 octobre 2005. Selon une étude publiée fin octobre

                                                                                                                      2005 par le centre de recherche Trade paper

                                                                                                                     ,     les    employés      américains

auront consacré l'équivalent de 551000 années de lecture aux blogs en 2005. Un salarié sur quatre passe environ un dixième de son temps de travail à consulter Blogs, chroniques ou journaux intimes sur Internet, sans que ce loisir soit nécessairement considéré comme une perte de temps pour l'entreprise selon certains experts47. La prospérité des Blogs a engendré sa version spam : le sblog. En octobre, 5% des nouveaux blogs créés étaient l'œuvre de spammeurs et l'on dénombrait 50 000 commentaires quotidiens (sur 1,3 millions) laissés automatiquement par des robots. Nul doute que la réplique des principaux moteurs de recherche, qui ont développé durant l'été 2005 des services dédiés aux Blogs, ne saurait tarder pour enrayer cette dérive.

Pour une entreprise française, mettre à profit la plume d'un bloggeur se révèle encore un exercice périlleux, lorsque l'on sait combien il sait capter l’écoute, comme pour railler la vie interne d'une entreprise. Seule une dizaine de sociétés françaises a tenté l'expérience depuis le début de l'année 2005, alors que la plupart des grandes entreprises américaines se sont lancées dans cette

 voie et récoltent déjà des bénéfices en termes d'images et de relation avec les clients. L'exemple d'une marque

française notoire de cosmétique est caractéristique. Son blog, le Journal de ma peau, était réalisé par une chef de produit de la marque sans que ce « détail » soit précisé. Pis, les commentaires étaient triés. Ces pratiques ont été rapidement comprises et condamnées par la communauté internaute. Après un mea culpa et l'adoption des règles de la blogosphère, ce blog fédère désormais un quart du trafic des sites Internet de cette marque de cosmétique.

La production de contenus, blogs, forums et wikis améliore la richesse sémantique du référencement naturel, en plus d'accélérer le rafraîchissement de pages Web. Comme les outils communautaires, les fils RSS favorisent le développement de la popularité (notoriété) d'un site Internet, et donc l’amélioration de son positionnement dans les moteurs via l’augmentation des liens possibles à travers la communauté des utilisateurs.

Quelles sont ces fameuses règles - juridiques, choix et présentation du bloggeur, ligne éditoriale, technique rédactionnelle, contenus en fonction de l'identité du client, méthode d'études de comportement - pour utiliser cet outil de communication direct et spontané aussi bien en faveur de la marque que de l'internaute ? Comment utiliser en ligne les nouveaux outils interactifs pour répondre aux quatre piliers fondateurs du média Internet : « partage, échange, instantanéité, gratuité » ? Comment développer le permission marketing dans l'art de créer du trafic ciblé ? Comment préparer la version 2 du Web ? Ces réponses seront données au début de l'année 2006 dans le prochain livre blanc de notre agence, 1ère Position, dont la force reste de savoir proposer une stratégie marketing sur Internet authentique et en avance sur son temps.



ARPA network : réseau de l'Advanced Research Projects Agency (ARPA), créée après le lancement du satellite Spoutnik en 1957  pour rattraper le retard technologique des Américains sur les Soviétiques.

L'idée de l'hypertexte est née en 1945 dans l'esprit de Vannevar Bush. Ce conseiller du Président Roosevelt a imaginé une machine à penser rassemblant une immense quantité de documents microfilmés et associés entre eux dans le but de simuler le cheminement de la pensée. 

Tenu secret

[6] Mais aussi : pour rechercher dans les blogs : pour accéder aux livres du domaine public : pour trouver un restaurant dans son quartier 

Pour vérifier la mise en évidence d'un "bug" du PageRank™ :

Les 30 chiffres clés de la recherche : ?resultat_id=198&rubrique=net

4000 milliards de dollars dans le monde entier en 2005

Source : . Ajoutons que 99,2% des internautes en France utilisent les outils de recherches (annuaires et moteurs de recherche) 11 Avec un affichage par défaut de 10 résultats par page

Il peut atteindre 80 € aux Etats-Unis pour certains mots-clés dans le domaine de la chirurgie !

Notamment à partir de l'adresse IP, ce qui implique de connaître la liste des adresses IP des robots des moteurs de recherche.

Attention : un nouveau nom de domaine possède également un PageRank égal à 0.

Alimentation de la base de données d'un moteur de recherche par le biais d'un flux XML.

160 millions d'utilisateurs dans le monde, un volume de vente estimé en 2005 à 40 milliards de dollars, 725 000 personnes vivant aux Etats-Unis partiellement ou totalement grâce à Ebay

Egalement connue sous le pseudonyme de « RFC 1855 ». Pour une version complète de la Netiquette, présentée sous une forme ludique :

,39020774,39265353,

;lang=fr_FR

Le créateur des liens sponsorisés sur les moteurs de recherche, lancés aux Etats-Unis en 1997

La recherche s’effectue souvent d’un mois sur l’autre et n’est pas totalement du temps réel. Les outils de suggestion des mots clés ne portent pas sur des échantillons mais bien sur les demandes réelles exprimées par les utilisateurs

Ce travail peut également être à la base d'une campagne de positionnement publicitaire

« Mettre le Web et ses services à la disposition de tous les individus, quel que soit leur matériel ou logiciel, leur infrastructure réseau, leur langue maternelle, leur culture, leur localisation géographique, ou leurs aptitudes physiques ou mentales. »  Tim Berners-Lee.

[27] Ceux-ci offrent davantage de possibilités de présentation des contenus multimédias et d'utilisation des liens hypertextes que le langage HTML.

Les directives pour les contenus de pages au format Web s'intitulent Web Content Accessibility Guidelines

(WCAG). Les directives pour les agents utilisateurs, c'est-à-dire tout ce qui permet d'appeler et d'afficher une page

Web (navigateur, robot, téléphone portable, PDA, etc.), se nomment User Agent Accessibility Guideslines (UAAG). Ces deux listes de directives ou recommandations sont éditées par le Web Accessibility Initiative (WAI), organisme de référence pour l'accessibilité du Web issu du W3C.

La faute aux pages satellites !

[30] Les internautes ne lisent pas mot à mot, mais en parcourant le texte à la recherche d'expressions clés  32 La mise en valeur des expressions clés a aussi une incidence positive sur le référencement par les moteurs de recherche

Le full flash est à réserver pour les sites à courte durée de vie n'ayant pas vocation à être référencé par les moteurs de recherche. Exemple : les sites de jeux événementiels, dont la notoriété se propagent dans la communauté internaute par le bouche à oreille. 

On estime communément que 80 à 90% des contenus d’Internet sont réalisés par des particuliers.

Certaines agences réalisent des pages satellites qu’elles ne retirent pas en fin de prestation.

Celui qui voulait être calife à la place du calife…

[36] Née avec l'ordinateur individuel. Aujourd'hui, un quart des 6-8 ans en France est déjà connecté à Internet ! 39 Institut IPSOS (juin 2005) ; ?rubId=1627

90% des lecteurs de presse écrite lisent des journaux gratuits

Pour le géant de télécommunications AT&T. A l'époque, le bandeau publicitaire était énigmatique.

Contenus multimédias (vidéo, son, animation) parfois accompagnés d'effets spéciaux

Une société spécialisée dans l'e-marketing. Etude datée d'octobre 2005 :

Et même 9% pour les annonceurs déjà présents en 2004 (Rapport TNS/IAB France)

Encyclopédies réalisées de manière collective

47

des_millions_d_americains_passent_des_heures_a_lire_des_blogs_au_travail.shtml

;

Le blog de Max est devenu un roman aux éditions Laffont ()



328