Le Web Marketing

Les enjeux du référencement et de la visibilité sur le Web.

« Best Practices », technologies, ergonomie.

par :

Alexandra Raimbault



Sommaire

Méthodologie. 6

Les objectifs. 6

Le choix des interlocuteurs. 6

Introduction. 8

Problématique. 8

Les limites. 9

1.     Le référencement c’est quoi ?. 10

1.1.     Le référencement, une définition succincte. 10

1.2.     Les moteurs de recherche (ou référencement automatique) 10

1.2.1.     Les robots. 11

1.2.2.     Le monopole Google et son « PageRank ». 11

1.3.     Les annuaires (ou référencement manuel) 12

1.4.     Les différentes stratégies de référencement 13

1.4.1.     Le référencement naturel (SEO) 13

1.4.2.     Les liens sponsorisés (ou positionnement publicitaire ou PPC) 14

1.4.3.     Le référencement dynamique (XML), Web visible et invisible. 14

1.4.4.     Le référencement spécialisé. 15

1.5.     Un outil pour comparer la popularité sur le net 15

1.6.     Le laboratoire du référencement 16

1.7.     Deux leviers importants du Web Marketing. 16

2.     Les enjeux du référencement 17

2.1.     L’achat et le choix des mots-clés (PPC) 17

2.1.1.     La gestion de l’achat des mots-clés (liens sponsorisés) 18

2.1.2.     Le choix des meilleurs mots-clés. 19

2.1.3.     Le suivi des campagnes de liens sponsorisés. 20

2.2.     Le référencement naturel (SEO), l’expérience d’un professionnel 21

2.2.1.     Les balises dans le code HTML de la page. 21

2.2.2.     La sémantique. 22

2.2.3.     Liens entre sites et entre catégories. 24

2.2.4.     L’ergonomie. 24

2.2.5.     Le suivi d’une campagne de référencement naturel 25

2.3.     Alors, SEO ou PPC ?. 26

2.4.     L’impact sur la structure organisationnelle des entreprises. 26

2.4.1.     Internaliser ou externaliser ?. 26

2.4.2.     Depuis qu’on utilise le Web de nouveaux postes sont créés. 26

2.4.3.     Référenceur, un métier ?. 27

2.4.4.     Le « Reverse engineering ». 27

2.5.     L’impact du Web Marketing sur la vente de produits complexes. 27

3.     Les évolutions techniques et les tendances. 28

3.1.     Le cas du Flash chez Forum Trafic. 28

3.2.     Le Web Marketing prend tout son sens. 28

3.2.1.     « The Long Tail » ou La Longue Traîne (concept marketing) 29

3.2.2.     Le Web 2.0 (concept technique) 30

3.3.     Le C2C. 31

3.4.     Les sites « hybrides ». 31

3.4.1.     L’évolution de 2000 à 2005. 31

3.4.2.     Les Weblogs. 32

3.4.3.     Les réseaux sociaux. 33

3.5.     Le Web Marketing Néthique. 34

3.5.1.     Le spam.. 34

3.5.2.     Le spamdexing. 35

3.5.3.     Les sanctions. 37

3.5.4.     Quatre moteurs de recherche à connaître. 39

3.6.     Le référencement grâce au plan du site. 39

3.7.     La contre-attaque de Microsoft : Live.com.. 40

3.8.     Synthèse : Les facteurs-clés de succès du référencement naturel 41

4.     Référencement : applications et solutions personnelles. 41

4.1.     Cas n°1 : Création d’un nouveau site. 41

4.1.1.     Solution : 41

4.2.     Cas n°2 : Les redirections. 42

4.2.1.     Travail « néthique » sur le nom de domaine. 42

4.2.2.     Solution : 42

4.2.3.     Travail de manipulation de l’internaute et du moteur 42

4.3.     Cas n°3 : Travail sur un nom de produit 43

4.4.     Cas n°4 : Problématique due au rachat de NetTest par Anritsu. 43

4.4.1.     Solution : 44

4.5.     Cas n°5 : Référencement grâce aux photos. 44

4.5.1.     Solution : 44

5.     Conclusion. 46

6.     Annexes. 47

6.1.     A propos de NetTest 47

6.2.     A propos de Forum trafic. 47

6.3.     Formulaire de soumission Top Annuaire. 48

6.4.     Exemple de site en 2.0 : Flickr 49

6.5.     « Notabene.net : Keyword analysis for NetTest ». 49

6.6.     Séminaire Imitiki / Chambre de Commerce de Paris Délégation de Paris. 50

6.7.     « Notabene.net : Workshop for NetTest ». 51

6.8.     Matrice produit-secteur Forum Trafic en fonction des critères N2H et n2H. 54

7.     Glossaire. 55

8.     Sources. 62



Méthodologie

Alexandra Raimbault : Nous sommes partis du constat que le monopole de Google au niveau du référencement conditionnait la façon dont les sites Web étaient conçus et les campagnes de Web Marketing menées. Nous avons voulu nous intéresser plus particulièrement au référencement qui est, selon nous, la pierre angulaire du Web Marketing. En effet, pour nous, un Web Marketing réussi s’appuie sur un bon positionnement sur le Web grâce au référencement naturel (SEO).

 

Les objectifs

A travers des recherches et des interviews de spécialistes du référencement, nous avons voulu démontrer que :

 

§         Les dirigeants doivent prendre conscience qu’il ne s’agit plus seulement de lancer des campagnes sur le Web (e-publicité, e-mailing) mais plutôt de soigner leur référencement donc leur positionnement dans les résultats des outils de recherche (moteurs et annuaires) pour accroître le trafic ciblé sur leur site.

 

§         Les objectifs d’un site Web et le budget à consacrer doivent être pensés en amont (il ne s’agit plus de faire du Web pour du Web). Ceci influe donc sur la stratégie de l’entreprise mais aussi sur son organisation car le référencement est un métier à part entière.

 

§         Il existe des techniques de référencement naturel, c'est-à-dire d’optimisation des pages Web, qui permettent d’améliorer grandement le positionnement, mais celles-ci demandent une expérience et des compétences énormes qui ne s’inventent pas, et qui, en aucun cas, ne peuvent être considérées comme secondaires.

 

Le choix des interlocuteurs

Pour étayer cette démonstration nous avons choisi d’interviewer plusieurs types de personnes pour qu’elles nous parlent de sujets qui leur sont propres. Cependant, ce sont plus que de véritables interviews puisqu’avec certaines personnes, nous avons travaillé depuis mi-2004 en vue d’optimiser les pages du site Web NetTest. Les résultats de ces « interviews collaboration » sont donc le fruit d’un travail commun.  

 

Voici les profils de ces intervenants et leurs sujets de prédilection :

 

§         Deux agences avec lesquelles nous avons travaillé sur le référencement et l’ergonomie du site Web NetTest (surtout fin 2004 et jusqu’à mi 2005) : Subsero et Notabene.

 

§         Deux Web Masters ayant des spécialités non pas différentes mais complémentaires :

 

o       l’accessibilité et le référencement NetTest: Piotr Narloch.

o       le référencement de sites Web dynamiques Didier Favre

 

§         Un chef d’entreprise ayant pour spécialité la vente de produits complexes : Francis Portogallo de Forum Trafic.

 

§         Une spécialiste du graphisme et donc du référencement d’un site en Flash : Anouk Perrin de Forum Trafic.

 

 

Nous avons choisi d’intégrer les résultats de ces interviews dans le corps du Mémoire sous forme de synthèse des idées-clés de façon à ne pas charger le texte d’une liste de questions-réponses (souvent traduites de l’anglais, par ailleurs).


Introduction

Le Web Marketing recouvre toutes les activités qui passent par le réseau Internet publique, les réseaux internes (Intranet) ou externes (Extranet) privés et sécurisés, ou plus généralement tout moyen de communication électronique. Mais le Web Marketing n’est rien sans le référencement et c’est à ce domaine spécifique que nous allons nous intéresser.

 

Problématique

La problématique qui se pose aussi bien aux entreprises qu’aux particuliers est la suivante : comment être visible sur le Web (nécessité de référencement) ? Ou encore : comment se positionner et se différencier sur la toile ? Nous sommes en face d’une nouvelle politique marketing qui remet en question l’organisation traditionnelle de l’entreprise.

 

En effet actuellement beaucoup d’entreprises se sentent quelque peu perdues et se demandent où s'arrête le référencement et où commence le Web Marketing. Nous démontrerons dans ce document que le référencement naturel se situe en amont du marketing dans sa mise en place et que c’est la nécessité d’un bon référencement et donc d’un bon positionnement dans les outils de recherche (moteurs ou annuaires) qui doit conditionner toute action en Web Marketing.

 

Ainsi, le premier chapitre s’intéressera aux différents types de référencement et distinguera le référencement naturel du référencement payant. Car c’est bien sur le référencement naturel qu’il faut travailler selon nous.

 

Puis, nous aborderons les enjeux du référencement pour mieux comprendre comment le référencement naturel impacte désormais : en amont, les objectifs marketing de l’entreprise et en aval, son organisation.

 

Dès lors, l’analyse des évolutions techniques et des tendances dans le troisième chapitre nous confirmera que le Web Marketing a pour pilier le référencement naturel car de nombreux acteurs du Web utilisent des outils plus ou moins « néthiques » pour atteindre le meilleur positionnement et ainsi accroître le trafic ciblé sur leurs sites.

 
Cette course au référencement entraîne en effet moult dérives et nous montrerons, à travers quelques applications personnelles, une série de techniques (certaines « néthiques », d’autres moins) visant à pousser un contenu de site Web et améliorer ses actions Marketing grâce au référencement naturel.

 

Les limites

Pour un tel sujet assez technique, difficile de ne pas passer par beaucoup de descriptifs. Mais nous avons essayé d’éviter cet écueil en utilisant des exemples concrets et en prenant partie, tout en exposant nos recommandations pour chaque démonstration développée.

 

De même, le sujet ayant énormément de composantes techniques, nous ne pouvons pas parler de tout. Par exemple, nous n’avons pas détaillé l’usage de petits morceaux de code ou de programmes appelés « robot.txt » qui permettent d’interdire l’indexation de certaines pages. Ou encore, nous n’avons pas décrit en détail ce qu’est le Web interactif (pages dynamiques) car ceci fait partie du domaine de la programmation pure (XML, Javascript, Ajax, fils RSS, etc.).

Cependant, un glossaire a été inséré en fin de document permettant d’avoir une explication simple et une idée de base sur ces techniques.

 
Nous avons aussi choisi volontairement de ne pas opposer Web Marketing BtoB et BtoC car nous avons démontré que les techniques de référencement des sites personnels et professionnels étaient proches désormais.

 
De surcroît, ce sujet est délicat car les techniques de référencement naturel ne sont pas forcément « néthiques » mais nous avons choisi de les présenter car elles reflètent bien que se positionner sur la toile est devenu un véritable enjeu pour les entreprises.

 Enfin, nous allons principalement nous intéresser à Google car ce moteur de recherche représente à lui seul, 80% du référencement mondial. Ainsi, Google pourrait faire l’objet d’un mémoire à lui tout seul. On se rend compte que le trio incontournable reste Google/Yahoo/MSN et que Google est en quasi-monopole. C’est pourquoi notre questionnement sur le référencement s’intéressera majoritairement à ce moteur.



La répartition des recherches par moteur de recherche (Mars 2005)

D’où viennent les internautes ? (Mars 2005)

Source Weborama/Takezo Brioudé : www.barometre-referencement.com


1.    Le référencement c’est quoi ?

1.1.  Le référencement, une définition succincte

Pour être référencé, donc être visible sur la toile, il faut tout d’abord inscrire son site Web auprès des différents outils de recherche disponibles sur Internet : les moteurs de recherche et les annuaires. En général c’est un service gratuit mais le délai d’apparition d’un site Web nouvellement référencé est compris entre un et trois mois !

 Ensuite, pour rendre maximum la visibilité d'un site Web dans ces annuaires et moteurs il faut suivre toute une série d’étapes très différentes qui vont de la simple définition de mots-clés à la création de pages spéciales facilitant le repérage des sites par les moteurs. Ainsi, dans ce document nous distinguerons bien :

 

§         Référencement naturel (encore appelé « SEO » pour « Search Engine Optimization ») qui couvre toutes les actions à effectuer pour améliorer le référencement d’un site Web en le positionnant au mieux dans les moteurs de recherche ou annuaires, ceci dans le but d’augmenter le trafic ciblé vers le site.

 
§         Référencement payant (encore appelé « Pay Per Click », positionnement publicitaire, liens sponsorisés).

C’est en 2001 qu’est apparue la notion de référencement payant (ou liens sponsorisés) : le « payeur » voit alors son site apparaître en tête des résultats (sur Overture.com) ou, plus subtil, dans une fenêtre en haut de page (sur Google). Le référencement devient alors de la publicité et le référenceur une centrale d'achat d'espace.

Le référencement n’est pas une finalité en soi, c’est un moyen de générer du trafic ciblé, de transformer le trafic en audience, d’améliorer le taux de conversion, d’augmenter la fidélisation et le buzz marketing autour du site puisque l’évolution des usages rend les pages Web de plus en plus différentes, complexes et personnalisables comme en témoignent les nombreux Blogs, Wiki, Forums, Fils RSS, etc.

 Le référencement naturel permet d’être présent dans les moteurs et annuaires et d’obtenir un bon positionnement sur les mots-clés recherchés dans ces outils.

 

1.2.  Les moteurs de recherche (ou référencement automatique)

Les robots des moteurs de recherche indexent toutes les pages Web d’un site automatiquement et proposent une recherche par mot-clé.

 

1.2.1.    Les robots

Aussi appelés « spiders » ou « crawlers » ce sont des logiciels qui scannent les pages des sites Web et engrangent dans un index les pages Web sémantiquement interprétables par les moteurs de recherche en fonction d’une analyse statistique de leur contenu. Cette version du document est appelée la version « cache ».

Ces robots repassent perpétuellement les pages Web avec une fréquence de cinq à quinze jours, pour que l’information la plus à jour possible soit toujours disponible pour les internautes.

 

Les délais de prise en compte d’un nouveau site sont souvent très longs, de un à trois mois, à moins de payer évidemment.

 

Il existe aussi des méta-moteurs qui permettent la recherche dans plusieurs moteurs, augmentant ainsi le nombre de résultats pertinents pour le visiteur. Il est donc de plus en plus intéressant de tester plusieurs outils de recherche pour obtenir des résultats plus exhaustifs.

 

Les moteurs ne peuvent pas indexer le Flash, le Javascript et les images. Nous évoquerons diverses alternatives et solutions à ce problème dans la partie évoquant « Les évolutions techniques et les tendances ».

1.2.2.    Le monopole Google et son « PageRank »

Google possède un index de plus de quatre milliards de pages Web. C’est le moteur mondial prédominant, avec presque 80 % de part de voix.

 

§         Le « PageRank », c'est l'indice de popularité d'une page, calculé par Google à partir du nombre et de l'importance des liens vers cette page.

Le « PageRank » ne donne en aucun cas d’informations sur le positionnement par mot-clé du site. C’est un système algorithmique spécifique qui prend en compte une centaine de critères qui ne sont pas officiellement communiqués.

 
§         Pour savoir si un site Web est bien « ranké » dans Google, il faut installer la « Google Toolbar » sur son navigateur : toolbar.google.com/intl/fr

Exemple de « PageRank »

 Nous pouvons dire que Google est une des composantes centrales du sujet du référencement. Les problèmes qui se posent sont ceux de l’éthique et de la confidentialité des informations véhiculées. De nombreux sites dédiés à Google en font part, notamment 7-dragons qui parlent de la collaboration entre Google et la NSA :

 « Un des passages les plus fameux sur la face cachée de Google concerne l'embauche d'un certain Matt Cutts, ancien ingénieur du National Security Advisor (N.S.A.), équivalent de la C.I.A. pour l'armée américaine. La rumeur s'est ainsi enflammée concernant Google qui serait en fait un outil de surveillance du N.S.A. Il est certain que Google est en contact avec les Services Secrets américains, comme toute entreprise majeure des Etats Unis. Par contre, le N.S.A. a aussi largement les moyens de se fabriquer son propre Google ou de le pirater. Bref, pas de preuves sur les liens de Google et le N.S.A., mais la rumeur est solide car on en parle toujours aujourd'hui.
Ceci dit, il est vrai que Google est très intrusif via son cache, sa Toolbar et GMail. Nos disques durs sont la prochaine cible et Picasa (récemment acheté par Google) se charge de tout rapporter à propos des images présentes sur votre système. »

 

De même, le récent article du Point confirme la tendance « Big Brother » vers laquelle l’américain Page et le russe Brin (les co-fondateurs de Google) s’orientent.

1.3.  Les annuaires (ou référencement manuel)

Les annuaires indexent les sites Web manuellement et proposent une recherche par catégorie et sous-catégorie thématiques.

Les responsables des annuaires demandent au Web Master de remplir une fiche descriptive. Il faudra définir dans quelles catégories ou sous-catégories le site Web va être classé. Il est bon de regarder les sites concurrents et d’identifier où ils se sont répertoriés pour avoir le plus de chances d’être soi-même classé au bon endroit pour faciliter la recherche des internautes.

Cette fiche descriptive devra aussi contenir des mots-clés et bien résumer le contenu du site.

Contrairement aux moteurs, les annuaires n’indexent pas les pages une à une. Ils se basent sur cette fiche descriptive uniquement, mais vont bien sûr vérifier le contenu du site proposé pour contrôler que ce contenu soit bien conforme à la description.

 
On pourra choisir de mettre son site Web dans plusieurs catégories mais il faudra veiller à ce que le site ne soit pas relégué trop loin dans les sous- rubriques. En effet lors d’une recherche sur Internet on sait que le nombre de clics est crucial et quand ce nombre est trop élevé l’internaute abandonne la recherche ou clique sur un lien placé plus haut dans la hiérarchie des rubriques.

            
Maintenant, la majeure partie des offres de référencement est mixte c'est-à-dire qu’elles combinent l’indexation automatique et manuelle, ce sont les méta-moteurs comme par exemple Meta France ou DogPile.

 

            Recherche mixte 

 

            Recherche par compilation de moteurs et d’annuaires 

 

1.4.  Les différentes stratégies de référencement

Selon les agences Subsero et Notabene, les différentes stratégies de référencement conditionnent la SEO « Search Engine Optimization » (encore appelée SEM « Search Engine Marketing »).

1.4.1.    Le référencement naturel (SEO)

C’est ce dont nous parlions dans l’introduction, ce sont des techniques pour optimiser de façon gratuite et manuelle la position d’un site selon certains critères de recherche dans les moteurs. C’est un travail qui nécessite d’agir dès la création du site Web sur différentes composantes comme le codage, la sémantique, l’ergonomie, l’indice de densité d’un mot-clé (c'est-à-dire combien de fois il revient dans la page). Par exemple, si le texte est trop long sur une page Web, le poids des mots-clés diminue.

C’est une technique consistant à adapter les pages du site Web aux critères d’indexation des moteurs de recherche. Plus une page est optimisée, plus son référencement naturel sera amélioré. Exemple d’optimisation : renseigner les « méta-tags », nommer correctement les images, insérer du contenu et des liens pertinents, etc.

 
Un dernier commentaire qui a son importance : on optimise une page d’un site pour telle expression ou tel mot-clé. Etre dans les trois premiers résultats d’un outil de recherche (moteur ou annuaire) ne veut rien dire. NetTest veut par exemple apparaître dans les premières pages de Google sur l’expression « network optimization » mais n’y arrive pas car c’est une expression déjà trop usitée.

 

1.4.2.    Les liens sponsorisés (ou positionnement publicitaire ou PPC)

Aussi appelé positionnement publicitaire ou PPC, « Pay Per Click », il correspond à l’achat de mots-clés aux enchères. Ainsi, sur des mots très concurrentiels, les prix peuvent grimper très vite. On utilise cette technique pour des campagnes spécifiques comme des lancements de produits d’un site déjà existant ou bien le lancement d’un nouveau site.

Le paiement se fait au clic de l’internaute sur le lien sponsorisé. Cette technique est employée quand on n’a pas le temps d’attendre le délai normal d’indexation d’un site par un moteur (de un à trois mois comme nous l’avons stipulé dans le chapitre « Le référencement, c’est quoi ? »). C’est un usage qui doit rester ponctuel selon nous.

 

1.4.3.    Le référencement dynamique (XML), Web visible et invisible

A l’origine, cette technique était présentée comme un formidable palliatif pour les sites dynamiques dont le contenu est difficilement pris en compte par les moteurs de recherche. Un site Web dynamique ou XML (langage de programmation) est un site qui repose sur des bases de données où il est possible de faire des « requêtes ».

Or les robots des moteurs de recherche ont besoin de suivre des liens à l’intérieur d’un site afin de pouvoir indexer les pages correspondantes. En principe dans un site XML, les pages ne sont accessibles que par le biais de l’interrogation d’un formulaire.

Deux alternatives :

 

§         Certains Web Masters ou agences réécrivent les pages XML en HTML (« URL rewriting ») et ces pages apparaissent donc de façon naturelle dans les résultats d’une recherche sur Google par exemple. Les URL dynamiques sont converties en URL statiques.

 

§          Les Flux XML : les informations utiles par produits sont extraites (par exemple, le nom, la description, le prix…) des bases de données du site et  via une interface intelligente les pages XML générées sont soumises aux moteurs partenaires (à ce jour, Voilà, Overture France, Espotting, Inktomi, Yahoo Search Technology). Ces derniers étant rémunérés au prorata du nombre de clics (offre « Pay Per Click »).

C’est une stratégie nouvelle mais assez controversée puisque Google par exemple l’assimile à du « spamdexing » dont nous parlerons plus bas.

Depuis quelques jours, Google désindexe beaucoup de pages dynamiques non « rewritées » (la plupart sur des forums). Ces pages deviennent donc invisibles.

 

1.4.4.    Le référencement spécialisé

Aussi appelé référencement thématique, il existe des annuaires spécialisés par région, par métier et par activité. Ces annuaires s’adressent à des visiteurs très ciblés. Ces visiteurs peuvent trouver un produit ou un service en circonscrivant une zone de trente cinq kilomètres depuis leur domicile, comme par exemple le site www.aidadomicil.com.

 

1.5.  Un outil pour comparer la popularité sur le net

Un « GoogleFight » est un usage détourné et amusant de Google. Le site GoogleFight.com propose de comparer la popularité de deux mots sur la base du nombre de pages trouvées pour chacun d'eux sur le moteur de recherche Google.

Par exemple, on peut lancer un GoogleFight entre NetTest et son concurrent Agilent, ou encore entre Dess Marketing et Mastère Marketing.

 

NetTest versus Agilent sur www.googlefight.com

 

DESS Marketing versus Mastère Marketing

1.6.  Le laboratoire du référencement

En 2004 a eu lieu un concours de positionnement appelé « mangeur de cigogne », le but était de référencer cette expression peu usitée ! Le gagnant, donc le meilleur référenceur, était celui qui obtiendrait la meilleure position dans Google.

 

L’association SEMA 7 a soutenu le concours « mangeur de cigogne » pour recenser l’ensemble des techniques qui ont été utilisées dans le cadre de ce concours tant il s’agit d’une formidable occasion d’avoir un "laboratoire ouvert" des techniques de référencement qu’elles soient agressives ou éthiques.

Les résultats ont été rendus publics à la date du 15 juin 2004, soit deux mois après la date limite d’inscription.

Un nouveau concours visant à référencer l’expression « sorcier glouton » a été lancé en avril 2005 sur le moteur MSN Search et clôturé le 15 juin 2005.

A suivre.

 

1.7.  Deux leviers importants du Webmarketing

D’après nos interlocuteurs Web Masters, un des principaux leviers du Webmarketing est la fidélisation car créer du trafic c'est bien, mais le fidéliser c'est mieux.

 

Il y a aussi un élément crucial, c’est « l'usabilité » du site car bien trop souvent l’internaute fuit après quelques secondes car il est pressé. En effet, c’est parce qu’il dispose de peu de temps qu’il vient sur Internet. Le palmarès des erreurs à ne pas commettre dans le domaine est :

 

§         Une page trop longue à télécharger (page trop lourde ou page en Flash).

§         Une page trop chargée qui ne permet pas à l’internaute de trouver l’information assez rapidement.

§         Trop d’animations sur la page qui tuent l’information.

§         Pas de moteur de recherche interne au site.

§         Des couleurs peu lisibles et fatigantes pour le regard.

§         Des fenêtres « pop-up » ou interstitiels qui s’ouvrent avant même que le reste de la page ne soit affiché.

 

2.    Les enjeux du référencement

Une fois évoqués les différents aspects liés au positionnement d’un site Web dans les outils de recherche, nous allons voir que l’optimisation des pages Web en vue d’un meilleur référencement repose sur un certain nombre de critères qu’il faut absolument connaître.

 

Ce choix dans les méthodes de référencement se révèle stratégique, dans la mesure où il conditionne pour partie, l’organisation de l’entreprise mais aussi la commercialisation des produits.

 

2.1.  L’achat et le choix des mots-clés (PPC)

Dans Google, en partie centrale, les sites référencés naturellement ; dans la colonne de droite,

les liens sponsorisés

 2.1.1.    La gestion de l’achat des mots-clés (liens sponsorisés)

L’entreprise, grâce à l’achat de mots-clés et donc de la création de liens sponsorisés, peut ajuster ses dépenses en fonction du trafic puisqu’elle ne paye que lorsqu'un internaute clique sur le lien. Elle peut ainsi estimer le coût de redirection d'un visiteur sur son site de la même manière qu’elle calcule un « cost per lead » pour d'autres formes de publicité.

Cependant, le système d’enchère est pernicieux car sur des mots très concurrentiels les prix peuvent augmenter de façon excessive annihilant tout retour sur investissement.

 Selon le Benchmark Group, les deux tiers des sociétés interrogées passent par leur agence média habituelle pour la gestion de l’achat des mots-clés. Seules un tiers d’entre elles recourent à un spécialiste du référencement.

 

Approches retenues pour l’achat de mots-clés en 2004

Source : Benchmark Group, « Publicité et marketing sur Internet », 2005

De même un tiers des annonceurs pensent d’ailleurs que leur prestataire n’est pas performant s’agissant de l’achat de mots-clés. De manière générale, le principal grief est « la nécessaire révision des mots-clés qui avaient, selon les annonceurs, généré un trafic insuffisamment qualifié ». Ces optimisations apparaissent toutefois plus ou moins inévitables selon les responsables, dans la mesure où c’est un sujet qui nécessite une part d’expérimentation.

 

Niveau de satisfaction des entreprises vis-à-vis des conseils offerts par le prestataire pour l’achat de mots-clés

Source : Benchmark Group, « Publicité et marketing sur Internet », 2005

 En 2005, les entreprises semblent investir davantage de budget dans la mise en place d’une logique d’achat à l’année sur certains mots-clés pour lancer de nouveaux produits par exemple. Ceci au détriment de l’achat d’espace en e-publicité.

 L’achat de mots-clés semble laisser la place pour 2006 au référencement naturel, puisque cet achat de mots-clés venait essentiellement pallier un référencement naturel déficient qui sera dorénavant mieux pris en charge.

 

Les forces et les faiblesses des liens promotionnels

Source : Benchmark Group, « Publicité et marketing sur Internet », 2005

 

2.1.2.    Le choix des meilleurs mots-clés

Il faut essayer de trouver les mots-clés les plus tapés par l’internaute et ceux qui sont le plus en adéquation avec le site Web à référencer. Il existe des outils qui permettent de comparer le potentiel de trafic d’un mot-clé et le nombre de résultats renvoyés par le moteur de recherche pour savoir s’il va être possible de se positionner (c'est-à-dire que si le mot-clé est déjà énormément utilisé, notre site risque d’arriver tout en bas de la liste).

 

Plusieurs outils gratuits :

§         Pour connaître le nombre de fois où la requête sur tel mot-clé a été saisie et le nombre de résultats identifiés par Google pour la requête (c'est-à-dire savoir s’il n’y a pas déjà trop de résultats quand on tape ce mot dans les moteurs de recherche). Ceci nous donne une note sur l’intérêt et la faisabilité du positionnement sur ce mot-clé :

Résultats pour l’expression « logiciel photo »

 

Nous avons voulu savoir s’il était judicieux d’optimiser le site Web dynamique de Didier Favre sur les mots « logiciel photo ». Ici le diagnostic est peu encourageant. Nous obtenons un meilleur résultat avec le mot « diaporama », avec une note de 10 sur 20.

 
§         Pour connaître les mots-clés les plus tapés, de nombreux sites existent comme overture ou encore le site d’Espotting, 

 

 
Ce choix de mots-clés est crucial puisqu’il va conditionner le positionnement du site Web dans les centaines de milliers de résultats qui vont apparaître pour telle ou telle recherche.

 

2.1.3.    Le suivi des campagnes de liens sponsorisés

Le suivi est difficile pour les entreprises, les seuls indicateurs bien maîtrisés sont le nombre de clics générés par les mots-clés et le coût au clic.

Le taux de transformation est intéressant mais parfois dur à évaluer car il est difficile de réussir à connaître le nombre d’actions transactionnelles ou relationnelles effectuées sur le site par rapport au nombre de clics générés par les mots-clés achetés.

 

Les indicateurs de performance des liens promotionnels suivis par les annonceurs

Source : Benchmark Group, « Publicité et marketing sur Internet », 2005

 

2.2.  Le référencement naturel (SEO), l’expérience d’un professionnel

Selon Jacob Hageman de l’agence Notabene, on peut distinguer quelques composantes d’une page Web qui vont avoir une influence sur le positionnement d’un site Web dans les moteurs de recherche.

 

2.2.1.    Les balises dans le code HTML de la page

 §         La balise « Title »

Les mots-clés vont être doublement référencés s’ils apparaissent ici.

 

 
§         Les balises « Meta name »

La balise « Meta name description » permet de décrire la page, en général on y insère encore une fois le maximum de mots-clés

 

La balise « Meta name keywords » permet de lister ses mots-clés.

 

Mais on a constaté une efficacité réduite de cette partie du code qui n’est plus le critère prépondérant pour le bon positionnement d’un site Web par les moteurs. Ainsi la société NetTest a choisi de ne pas utiliser cette balise.

 

2.2.2.    La sémantique

Mais le levier le plus significatif est sans aucun doute le texte.

En effet, tous les éléments textuels vont être pris en compte par le robot du moteur de recherche : le titre, les libellés des photos, les légendes, etc. C’est pourquoi il faudra tout particulièrement soigner cette partie.

 En conséquence :

 
§         Le texte dans la partie haute de la page doit être particulièrement soigné car le robot commence bien évidemment par là.

 
§         L’indice de densité d’un mot clé doit être élevé.

C’est le nombre de fois que le mot-clé apparaît dans la page.

  §         La fonte

Il faut privilégier le gras, l’italique, une taille de police élevée, les titres et sous-titres principaux.

Page du site NetTest optimisée pour une recherche sur le champ sémantique de l’optimisation

 
§         Le contenu de l’URL du site doit, lui aussi, reprendre les mots-clés.

 

§         Les liens texte, de la même façon.

 

§         Les attributs « ALT » et «TITLE » des images :

Ceci est une alternative textuelle pour les images. « ALT » est le texte qui apparaîtra si la photo ne s’affiche pas correctement dans la page. L’attribut « TITLE » servira à donner une description détaillée de l'image.

Ces deux attributs textuels sont primordiaux pour le référencement des pages contenant beaucoup de photos.

2.2.3.    Liens entre sites et entre catégories

Les liens transversaux entre catégories permettent d’augmenter la popularité et donc le « PageRank » du site Web. De même les liens pointant sur le site et leur pertinence sont fondamentaux.

 

2.2.4.    L’ergonomie

Fin 2004, il a fallu repenser le design et l’ergonomie de la page d’accueil du site Web NetTest.

Piotr Narloch, alors Web Master a dû travailler avec les responsables du Marketing des trois divisions de NetTest pour connaître leurs attentes et distinguer ce qui était bon pour le référencement de ce qui ne l’était pas.

 

De ce travail d’équipe auquel nous avons participé en tant que « Product Marketing Manager », nous avons conclu qu’il fallait réorganiser la page de façon à :

§         Séparer les informations pour les mettre en valeur sous forme de « boîtes » : nouveauté produit, promotion mensuelle, événements.

§         Rendre le contenu plus clair et lisible.

§         Permettre une recherche facile par produit.

§         Créer un plan du site.

 

Besoins spécifiques en ergonomie pour la nouvelle page d’accueil

Solutions pour optimiser la page en vue du référencement

Organisation par boîte

Soigner le texte de chaque boîte en insérant le maximum de mots-clés

 

Soigner le titre de chaque boîte

Rubrique “recherche”

Créer plusieurs outils de recherche (par produit, par technologie et par type de solution)

 

Soigner le texte décrivant l’outil de recherche

Clarifier la page

Un texte concentré sur le haut de la page est plus facile à référencer

 

La page est visible dans sa totalité sans avoir à utiliser le navigateur horizontal ou vertical

 

Créer un plan du site reprenant tous les liens

Inscription à la « Newsletter »

Faciliter l’inscription en limitant le nombre de clics

Rubrique « Contact NetTest »

Placer cette rubrique importante en haut à gauche de la page car traditionnellement, c’est cette barre verticale que l’internaute regarde en premier

 

2.2.5.    Le suivi d’une campagne de référencement naturel

Les indicateurs à suivre vont être principalement :

§         Combien de visites ont été générées par un clic sur un lien provenant de Google.

§         Le taux de transformation provenant de ces clics.

§         Le trafic généré par le référencement sur Google par rapport au trafic provenant d’autres sites ou d’autres média (publicité, e-publicité, buzz, etc.)

 
Attention, ces indicateurs peuvent être difficiles à évaluer si l’on ne dispose pas d’un outil de « tracking » approprié. Cet outil est en général fourni dans la prestation des référenceurs ou des agences de communication.

 

            Statistiques sur le nombre de clics sur chaque lien de la page d’accueil NetTest

2.3.  Alors, SEO ou PPC ?

En conclusion, faut-il préférer le référencement naturel ou le référencement payant ?

Il ne semble pas que la conversion soit plus forte avec les liens sponsorisés qu’avec le référencement naturel. Mais le référencement naturel ou optimisation est plus fastidieux car il ne s’agit pas juste d’acheter un mot-clé mais plutôt de repenser toute sa politique de Web Marketing. L’objectif étant double : être visible et générer des contacts utiles. Chez NetTest, on peut constater que sur 15 mots achetés 2 génèrent 80% du trafic en 2004.

Les liens sponsorisés devraient être utilisés ponctuellement et le référencement naturel devrait faire partie de la stratégie de l’entreprise.

De plus, les internautes sont de plus en plus avisés et savent maintenant distinguer publicité et l'information sur le Web. Les utilisateurs désirent avoir pour moteur, un véritable outil de recherche et non un vecteur de publicité.

           

2.4.  L’impact sur la structure organisationnelle des entreprises

2.4.1.    Internaliser ou externaliser ?

Pour rester concurrentiel, beaucoup de sociétés font appel à une société de référencement.

 

 

Avantages

Inconvénients

Internaliser

Meilleure adéquation avec la stratégie de l’entreprise

 

Réactivité plus grande

Compétences requises très diversifiées

(optimisation, achat d’espace, inscription, suivi, veille)

 

Compétences encore rares sur le marché de l’emploi

Externaliser

Facilité de mise en œuvre

 

Rapidité

 

Choix du bon prestataire difficile

 

 

2.4.2.    Depuis qu’on utilise le Web de nouveaux postes sont créés

Un simple Web Master ne suffit plus dans le sens où au départ, selon Kristoffer de Hemmer Hamborg, Chef de projet à l’agence Subsero, le Web master était avant tout un programmeur. Maintenant il doit prendre en compte le design, l’ergonomie, le comportement de l’internaute qui deviennent des composantes à part entière du Web Marketing. Nous sommes donc à la croisée des chemins entre marketing, design et programmation.

 

De surcroît, ce sujet du référencement est très consommateur de ressources humaines car très prenant et demandant une expérience poussée. Le niveau de complexité du référencement étant fort élevé, on assiste à l’apparition de nouveaux métiers :

§         Chef de Projet on-line

§         « Web designer »

§         « Web surfer »

§         Responsable de trafic ou « Traffic manager »

§         Rédacteur on line

§         Secrétaire de e-Rédaction

§         Cyber Documentaliste

§         Ergonome ou Concepteur réalisateur

 

2.4.3.    Référenceur, un métier ?

Un spécialiste en référencement est souvent nécessaire car il s’agit véritablement de conseiller les entreprises pour qu’elles aient une démarche cohérente par rapport aux attentes des utilisateurs et des moteurs de recherche. Le référenceur devient un expert en « keyword marketing » et doit posséder des qualités et compétences aussi bien disparates que complexes, comme nous venons de le voir.

 

2.4.4.    Le « Reverse engineering »

C'est une partie intégrante du métier de référenceur et c’est une expression un peu pompeuse pour décrire ce que les Web Masters font tous les jours pour mieux comprendre comment un moteur indexe les pages Web à partir de leur contenu.

 

2.5.  L’impact du Webmarketing sur la vente de produits complexes

La pluralité d’un médium comme le Web va pouvoir libérer toute sa puissance pour la vente des produits complexes. En effet la structure hypertexte du Web va permettre de représenter la polymorphie de tels produits. Cependant, plus encore que pour d’autres types de média (relationnel ou transactionnel), la combinaison entre le type de segmentation et la description des produits sera la base d’une bonne politique de référencement, point clé de la communication sur le Web.

 

Ainsi, le déclenchement d’une décision d’achat qui requiert déjà des trésors d’ingéniosité dans le cas de produits simples, demandera l’élaboration d’un processus encore plus lourd dans le cas de produit polymorphes. Le Web permet d’alléger ce processus. Ainsi sur le Web il est plus facile d’opérer plusieurs segmentations en même temps : par technologie, par solution ou par produit. En effet toutes les segmentations sont accessibles depuis la même page et l’internaute qui arrive sur la page d’accueil peut ainsi combiner différents critères de recherche. Par exemple, sur le site NetTest, on peut combiner recherche par technologie et par nom de produit, ou encore par technologie et solution. A chaque fois, on arrive à une liste restreinte de résultats qui permet au visiteur de ne pas passer des heures sur chaque site pour obtenir une information.

 

Chez Forum Trafic, Francis Portogallo a choisi de définir une segmentation claire de l’univers fonctionnel des produits considérés. La méthode a été de croiser cette première segmentation avec une typologie des différents secteurs d’activités susceptibles d’acheter le produit. Ils ont ainsi obtenu une matrice de grande taille. Pour chaque couple produit-secteur, a été affectée une autre classification : N2H (Need to have) ou n2H (Nice to have). Le sous-ensemble N2H a bien entendu été privilégié. Selon Francis Portogallo, aucun autre médium ne permet aujourd’hui une représentation aussi exhaustive et facilement accessible d’un portefeuille de produits complexes.

 

Comme nous venons de le voir, les principaux enjeux du référencement naturel (SEO) sont donc bien de :

 

§         Générer du trafic ciblé sur son site Web.

§         Fidéliser les visiteurs.

§         Créer une bonne notoriété en gardant un positionnement cohérent sur le Web.

 

De même, il faudra que les entreprises tiennent comptent et s’adaptent aux nombreuses évolutions techniques autour du Web, de façon à continuer à optimiser leur référencement et donc à se différencier de leurs concurrents.

 

3.    Les évolutions techniques et les tendances

3.1.  Le cas du Flash chez Forum Trafic

Comme nous l’avons vu précédemment, le référencement des sites en Flash est problématique. Cependant, selon Anouk Perrin de Forum Trafic, il existe des moyens de contourner cette difficulté.

 

En effet, les moteurs de recherche ne prennent pas en compte le Flash. Une alternative est de générer des fichiers « swif » (une des formats de Flash) pour améliorer les chances d’indexation par les moteurs.

 

En outre, et en tout état de cause, il est grandement conseillé de proposer en ligne une version HTML de son site.

 

Enfin, il existe une autre façon de bien positionner un site en Flash sur les moteurs de recherche : passer par les offres de positionnement publicitaire pour être certain d'être en tête de liste. Mais, comme nous l’avons vu précédemment, le recours à cette méthode est payante et doit demeurer ponctuelle.

 

3.2.  Le Web Marketing prend tout son sens

Grâce à de nouveaux concepts, le Webmarketing change vraiment d’orientation et prend désormais tout son sens. Des idées vraiment audacieuses comme « The Long Tail » (la Longue Traîne) et les évolutions techniques montrent que le Web est désormais un enjeu de taille pour les entreprises.

On peut aussi désormais obtenir une mine d’informations sur le comportement des internautes grâce aux blogs et aux « chats ».

 

3.2.1.    « The Long Tail » ou La Longue Traîne (concept marketing)

L’idée est de ne plus se focaliser sur quelques gros marchés connus de tous mais de s’intéresser à la multitude de couples produit-marché qui peuvent être mis en relation grâce à l’Internet.

 

L’humanité crée énormément de matière intellectuelle ou physique. Cette dernière est souvent oubliée parce qu’il n’existe pas la structure pour la présenter. Le simple fait de la « marqueter » sur le Web peut réveiller une demande suffisamment importante pour qu’il y ait matière à vendre en quantité.

 

Les consommateurs sont lassés des choix limités imposés par la mode. Ils ont des goûts personnels qu’ils ne retrouvent pas dans les produits « marquetés » à large échelle.

 

Une difficulté des marchés traditionnels est liée à la nécessité d’avoir des clients concentrés sur une surface géographique délimitée. Il est également impossible de se lancer dans une commercialisation qui ne remboursera pas ses coûts de production. Dans ces cas de figure, il est donc difficile d’offrir un large choix de produits ou services diversifiés.

 Cependant l’inadéquation entre la demande et l’offre ne génère pas de vente. Une solution consisterait donc à changer de modèle économique en offrant des alternatives aux produits-phares et ceci en utilisant la vente en ligne. Il existe de nombreux produits ou solutions qui ne sont pas « marquetés » et des produits de niches qui existent mais qui ne sont pas encore visibles sur le net.

 
La
théorie de la Longue Traîne dit que pour tout article qui est proposé, il y a un potentiel de vente, même s’il ne s’agit que de quelques personnes par mois dans le monde. Ainsi, on peut tout trouver sur la Longue Traîne et pas forcément de la qualité. Mais, en additionnant tout ce qui se vend sur la Longue Traîne, on obtient un marché qui dépasse celui des produits-phares.

 
Les entreprises qui réussissent le mieux sur l’Internet travaillent toutes sur la Longue Traîne. Ainsi, Google tire la majorité de son chiffre d’affaires de la publicité chez de petits annonceurs.

 Source : Chris Anderson, rédacteur en chef de Wired. Il possède un blog consacré au phénomène qu’il décrit dans l’article : thelongtail.com

  

3.2.2.    Le Web 2.0 (concept technique)

Il n’existe pas de définition précise du Web 2.0 car il n’y a pas d’organisme pour cela. Il est cependant possible de distinguer les technologies et les comportements des internautes afin de se donner une idée des différences entre le Web 1.0 et le Web 2.0 :

 
§         Le Web 1.0 : C’est le Web classique que nous connaissons depuis dix ans. Il est souvent réalisé avec les langages historiques du monde du Web dont le HTML, le Javascript et le Flash. Un utilisateur arrive sur un site Web et navigue de page en page. Pages qui sont figées dans ce site en fonction des différents liens définis par le créateur du site.

  
§         Le Web 2.0 : C’est un Web qui répond précisément à chaque demande d’un utilisateur. Il est réalisé avec des langages permettant de réaliser des pages dynamiques dont le PHP, .Net, Java, XML et surtout l’accès aux bases de données et le chargement asynchrone de données serveur (Ajax). Un utilisateur navigue sur la toile en passant d’une information à l’autre sans se poser de question sur les créateurs des sites. Les contraintes d’accès à une information disparaissent au profit de l’interaction et du relationnel. Ceci va même jusqu’à l’aspect collaboratif où l’utilisateur peut lui-même modifier les informations des sites auxquels il accède.

 
Il n’y a pas vraiment de transition du Web 1.0 au Web 2.0 mais un passage régulier de l’un à l’autre. Les techniques liées au Web interactif sont connues depuis longtemps par les créateurs de sites. Ce qui est nouveau, c’ est l’utilisation fréquente de ces techniques au niveau de la structure générale du site Web et plus uniquement dans une sous-partie du site.

 L’engouement pour le Web 2.0 permet principalement de vendre des développements autour d'un nouvel acronyme Ajax (JavaScript + XML) aux responsables de sites Web. Il n’en reste pas qu’il existe une véritable évolution sous le nom Web 2.0 qui recouvre un ensemble d’approches (API, fils RSS, Folksonomies, Réseaux sociaux) et qui propose aux créateurs de sites une nouvelle manière d’aborder les problèmes complexes pour arriver à de vraies solutions pour les besoins des Internautes.

           

Web 1.0

Web 1.5

Web 2.0

Type de Web

Statique

Dynamique

Collaboratif

Période

1994-1997

1997-2003

2003

Technologies associées

HTML, GIF

DHTML, ASP, PHP, CSS

Ajax, DHTML, XML, Soap

Caractéristiques

Les pages Web sont des documents statiques rarement mis à jour.

Les pages Web sont construites à la volée à partir d’une ou plusieurs bases de données.

L’utilisateur devient contributeur. Il publie des informations et manipule les données.

            Source : 01 Informatique, 11/11/2005

3.3.  Le C2C

L’exemple le plus flagrant et le plus réussi d’e-commerce mondial entre particuliers, encore appelé « consumer to consumer » est sans doute eBay. On peut même parler de Web communautaire car ces ventes sont gérées de bout en bout par les membres qui vont chercher les produits achetés eux-mêmes d’où l’absence de stock. Les valeurs de confiance et d’échange sont renforcées par le fait que chaque vendeur est noté en fonction du service rendu. Ainsi, le bénéfice net d’eBay pour le troisième trimestre 2005 est en hausse de plus de 43 % à 255 millions de dollars.

 Selon les Echos, cette tendance lancée par eBay serait en train de gagner du terrain :

 « Les particuliers s'adonnent de plus en plus entre eux à des opérations d'achat-vente sur Internet. Le moteur de recherche Google ne s'y est d'ailleurs pas trompé en annonçant, il y a une semaine, le démarrage de l'expérimentation d'un nouveau service, Google Base, qui permettrait aux internautes de rendre accessibles en ligne leurs petites annonces pour, par exemple, vendre des articles d'occasion. Avec l'intention, non dissimulée, de venir concurrencer eBay, premier site mondial de ventes entre particuliers. »

Source : Les Echos, 2 novembre 2005

 Ainsi on apprend que « la fréquentation des sites d'achat-vente de produits neufs ou d'occasion a augmenté de 55 % entre avril 2004 et avril 2005 » selon une étude Médiamétrie/NetRatings/Fevad. 

 Ceci va encore accroître la soif de monopole de Google qui a lancé son site de petites annonces « Google Base » fin octobre.

On peut donc se dire que Google va être encore plus présent sur la toile et que les sites auront de plus en plus intérêt à optimiser leurs pages et à diversifier les services proposés aux internautes avec l’obligation de créer des forums, des « chats », des petites annonces, etc.

 

3.4.  Les sites « hybrides »

3.4.1.    L’évolution de 2000 à 2005

On est passé de sites Web créés « pour s’amuser » aux sites « hybrides », c’est-à-dire qui se situent entre site professionnel et site personnel.

 
Cette évolution est flagrante si l’on regarde la progression sur plusieurs années :

 
§         En 2000, on fait du Web pour faire du Web, c'est-à-dire pour s’amuser et découvrir.

 
§         En 2002, 2003, on fait des sites Web « jolis » avec l’utilisation à outrance des animations, Gifs animés, puis Flash qui rendent les pages clignotantes, voyantes et surtout illisibles !

 
§         En 2004, a commencé le jeu du « PageRank » où chaque créateur de site Web a voulu essayer de se faire référencer et de se positionner sur Google en utilisant des astuces « maison ». Un des moyens fortement utilisés était la technique des « rebonds », c’est-à-dire la présence accrue de liens qui pointent vers un site mais aussi de liens internes (comme nous l’avons vu dans le chapitre « Liens entre sites et entre catégories »).

§         Enfin, en 2005, le métier de référenceur est apparu et commence à être reconnu comme une véritable expertise. On prend conscience que l’analyse et l’optimisation sémantique sont cruciales pour se différencier sur le Web.

En somme, nous constatons qu’il y a beaucoup de sites personnels qui sont aussi bien conçus (voire mieux) que certains sites professionnels.

Par exemple le site www.archimede.fr  créé en juin 2005 et qui possède déjà un « PageRank » à 3.

 
Le site est réalisé en Flash par un designer (donc beau) et en HTML par un informaticien (présence d’un plan du site détaillé menant à la version HTML en plus de la version Flash).

De surcroît, sur ce site, les méta-commandes sont claires et complètes pour les robots des moteurs.

 

3.4.2.     Les Weblogs

Ce sont des pages personnelles que l’on assimile volontiers à une sorte de journal intime racontant la vie au quotidien de tel ou tel individu. Cependant, la différence avec un journal intime est que chacun peut réagir et « poster » ses commentaires en temps réel.

De plus, ces blogs sont souvent très bien référencés et apparaissent quelques fois en tête de liste des résultats sur les moteurs de recherche, c’est pourquoi, les professionnels se sont inspirés de ces pages personnelles pour améliorer leur marketing relationnel. En effet, on le savait, les entreprises utilisent Internet pour recruter. Mais depuis le début de l’année 2005, on assiste au développement de deux nouveaux canaux de recrutement : les « chats » et les blogs.

 Ainsi, Century 21 a lancé une campagne de recrutement par blog. Ces blogs ont fait intervenir le DRH et des collaborateurs qui racontent leur quotidien. Selon les derniers commentaires édités sur le blog de Century 21, le 22 juin 2005 : « Cette campagne est réussie. Ce fut pour notre service une expérience bénéfique, nous y avons pu faire découvrir les métiers de l'immobilier au plus grand nombre, de nombreux candidats se sont par la suite rendus sur notre site Web pour consulter nos offres d'emploi ou ont contacté notre centre d'appels pour avoir des informations complémentaires sur les postes que nous proposons et notre politique de recrutement… ».

 De même, le Crédit Lyonnais en est à sa deuxième phase de recrutement par « chat » :

Invitation au chat LCL du 14 novembre 2005

L’objectif est de mettre en place un marketing relationnel personnalisé qui permet de créer une relation privilégiée avec le futur recruté. Les valeurs de l’entreprise sont donc plus faciles à transmettre et ces campagnes améliorent donc la notoriété et l’image de l’entreprise.

3.4.3.    Les réseaux sociaux

Un des sens du réseau social sur Internet, c’est l’utilisation d’un site Internet de mise en relation de personnes. Ce type de site Web permet de nouer de nouveaux contacts professionnels dans tous les secteurs d'activité ou de se faire connaître personnellement.

 Les réseaux sociaux dédiés aux professionnels reposent sur le principe de l’acceptation réciproque et de la confiance entre un membre et la personne qu’il invite à rejoindre le réseau.

 La seule façon pour un membre de rentrer en contact avec un autre membre du réseau avec qui il n’est pas en contact direct consiste à passer par l’intermédiaire d’un autre inscrit. Ce dernier à pour rôle de faciliter la mise en relation.

 Tout ceci est très proche de ce qui existe sans l’Internet mais dans ce cas le réseau potentiel de relations peut être beaucoup plus large.

 Les réseaux reconnus sont Viaduc , LinkedIn, 6nergies.

 3.5.  Le Web Marketing Néthique

La rapidité et le faible coût du transfert de l’information grâce au Web encouragent certaines entreprises ou certains individus malveillants à abuser de techniques visant à pousser des offres commerciales vers l’internaute ou encore à pirater ses données bancaires. C’est pourquoi il existe désormais une politique éthique dans les professions du Web destinée à repérer et à limiter ce genre d’abus.

 3.5.1.    Le spam

Les techniques de spam sont connues, il s’agit d’envoyer de nombreux e-mails non désirés dans les boîtes aux lettres électroniques. Mais désormais les techniques ont évolué.

Une nou­velle technique, plus sophistiquée, arrive progressivement. L’internaute reçoit un spam. Contrairement au « phishing » qui vous invite à cliquer sur un lien qui vous conduit sur un faux site (d’une banque par exemple), le seul fait d'ouvrir ce mes­sage introduit un logiciel renifleur. Ce dis­positif se déclenche lorsque vous tapez les seize chiffres de votre Carte Bleue et envoie automatiquement ce code aux pirates.

 

Un autre procédé consiste à générer des combinaisons d’adresses e-mail à partir de noms et de fournisseurs d’accès. Ce sont des logiciels qui effectuent l'opération avec des mil­liers de noms et plusieurs fournis­seurs d'accès. Au final, la méthode permet de créer un bon nombre d'adresses valides.

 

Mais depuis la loi du 21 juin 2004 pour la confiance dans l'économie numérique, il est désormais interdit d'adresser aux particuliers des messages de nature commerciale sans avoir obtenu préalablement leur consentement. Toutefois, la loi prévoit une dérogation dans le cas où un client a déjà acheté un produit à une entreprise. Dans ce cas précis, celle-ci pourra lui adresser des messages commerciaux pour assurer la promotion de ses produits. A condition qu'ils soient analogues à celui acheté antérieurement.

 3.5.2.    Le spamdexing

Il existe plusieurs techniques pour augmenter l’indexation de son site Web par les moteurs de recherche et les annuaires. Plusieurs variantes existent :

 
§         Les sites miroirs :

Ce sont des copies conformes en HTML d’un site principal (lui en XML, c'est-à-dire dynamique) avec l’utilisation de plusieurs noms de domaines satellites pour multiplier les positions et augmenter le trafic.

 
Ceci n’est pas forcément une bonne technique car on se fait concurrence soi-même sur le nom de domaine principal qui doit être la priorité pour le référencement. Un des sites satellite va être mieux référencé et les autres seront à la traîne puisque qu’ils ne seront pas optimisés par du « backlinking » et des liens bidirectionnels pertinents, des mentions dans des blogs ou des forums, enfin tout ce qui permet à un site de gagner sa notoriété sur le Web.

 
Nous pensons que le côté utilisateur doit donc être privilégié au lieu d’abuser de ces techniques, cependant nous ne disons pas qu’il ne faut jamais utiliser les satellites, mais seulement de façon modérée et ponctuelle. Même si ce propos n’est pas politiquement correct, en pratique, nous devons dire que cette technique fonctionne puisque cela permet un décollage rapide des positionnements et du trafic, au début tout au moins.

 
§         Le « cloaking » et le «page jacking »

- Le « cloaking » consiste à identifier les adresses IP des robots et à leur montrer un contenu spécifique. Le « cloaking » consiste à créer des doubles des pages réelles du site pour obtenir de bons classements dans les outils de recherche. Ainsi pour une même URL, les moteurs verront une page entièrement optimisée et qui répond à leurs critères de classement tandis qu’en demandant la même URL, l’internaute lambda verra une page tout à fait ordinaire.

 

Pour cela, il est nécessaire que le serveur Web qui héberge le site connaisse toutes les adresses des « spiders » des moteurs de recherche et à chaque fois que l’un d’entre eux se connecte, il leur envoie une page « cloakée ». Cette pratique est lourdement sanctionnée par Google.

 

- Le « page jacking » consiste à capturer le code d’une page en première position, à copier ce code sur une page de son serveur, à la faire indexer via une technique de « cloaking » et à renvoyer à l'internaute une page normale du site.

En théorie, on a récupéré une excellente position en parasitant le travail d'un autre mais on fait basculer le trafic sur ses propres pages qui ne sont peut-être pas pertinentes pour l’internaute.

Dans la pratique, le « cloaking » est très risqué et bon nombre d’outils de recherche se protègent contre ce type d'attaque. Nous sommes donc assez réservés sur ce type de technique.

 

§         Les pages satellites

C’est une page spécialement créée pour un mot-clé spécifique qui a vocation d’être redirigée sur la véritable page d’accueil qui contient le contenu que l’on veut pousser. On peut par exemple créer beaucoup de pages satellites en utilisant des mots-clés très porteurs (« gratuit », « cadeau », etc.) pour attirer les internautes. Mais le contenu réel de la véritable page d’accueil peut décevoir puisqu’elle est souvent totalement différente de la requête de l’internaute. C’est un procédé à proscrire sauf dans le cas où l’on change de nom de domaine, que l’on était très bien positionné sur ce nom et que l’on ne veut pas perdre le trafic généré auparavant. Mais ce cas de figure est rare.

 

§         Les « link farms »

Ceci consiste à utiliser des logiciels qui génèrent des liens automatiques pointant sur son site. Cela augmente la popularité et donc le « PageRank » dans Google et dans les autres moteurs de recherche. Ce sont des concentrations artificielles de liens.

 

§         Le texte invisible

On peut rajouter le mot-clé sur lequel on veut être bien positionné en blanc sur blanc plusieurs centaines de fois pour gagner en référencement mais cette technique est aisément repérable par les moteurs qui combattent cette fraude.

 

§         Le scam

Le scam (« ruse » en anglais), est une pratique frauduleuse d'origine africaine, consistant à extorquer des fonds à des internautes en leur faisant miroiter une somme d'argent dont ils pourraient toucher un pourcentage. L'arnaque du scam est issue du Nigéria, ce qui lui vaut également l'appellation « 419 » en référence à l'article du code pénal nigérian réprimant ce type de pratique.

 

L'arnaque du scam est classique : vous recevez un courrier électronique de la part du seul descendant d'un riche africain décédé il y a peu. Ce dernier a déposé plusieurs millions de dollars dans une compagnie de sécurité financière et votre interlocuteur a besoin d'un associé à l'étranger pour l'aider à transférer les fonds. Il est d'ailleurs prêt à vous reverser un pourcentage non négligeable si vous acceptez de lui fournir un compte pour faire transiter les fonds.

 

En répondant à un message de type scam, l'internaute s'enferme dans un cercle vicieux pouvant lui coûter quelques centaines d'euros s'il mord à l'hameçon.

 

§         Le « phishing »

C’est l'usurpation d'identité d’un site Web ou d’un nom de domaine. Des sites miroirs semblables à des portails de renom sont créés puis les internautes sont arrosés au hasard avec un courrier non sollicité (« spam ») qui reprend à son tour l'habillage graphique du portail détourné. Le but du jeu est alors d'attirer un internaute réellement client du site plagié. Ce « spam » invite l'internaute à se rendre sur le faux site pour remettre à jour certains renseignements personnels dans un questionnaire tout aussi faux. L'internaute ainsi dupé laisse numéros de téléphone, de sécurité sociale, de compte bancaire et parfois de carte de crédit. Autant d'informations lucratives pour les escrocs en ligne.

 

3.5.3.    Les sanctions

La justice américaine a condamné dès 1999 la pratique du « Pagejacking » en s'appuyant sur le droit du consommateur (qui était induit en erreur).

Google « déréférence » systématiquement les sites qui utilisent ce genre de pratique de duplicateur de contenu. Les sites incriminés sont donc « blacklistés » par Google mais heureusement pour les fautifs ceci n’est pas définitif. Et s’il suive la politique éthique du Web Marketing, ils peuvent revenir dans la course.

 
En fait, maintenant Google sanctionne les sites Web à cause des techniques de référencement utilisées. Avant l’année 2000, la sanction était majoritairement due au contenu.

Pour vérifier si un site est « blacklisté » ou pour savoir si des liens pointent vers un site, il faut taper dans Google :

§         site : nom du site

§         link : www.nom du site

NetTest n’est pas « blacklisté » car Google référence bien les 670 pages du site

 

NetTest possède 83 liens qui pointent sur lui, ce qui lui confère un « PageRank » de 7 sur 10

  

3.5.4.    Quatre moteurs de recherche à connaître

Quatre moteurs de recherche moins sensibles à la triche :

 

§         Google-filter.com

Ce site propose les mêmes pages de résultats que Google, la personnalisation en plus. L'internaute, après avoir rempli un formulaire d'inscription gratuite, peut créer sa propre liste noire dans laquelle il ajoute au fur et à mesure les sites qu'il ne juge pas pertinents. Quant à l'éditeur, il poursuit la chasse aux spammeurs en excluant d'office cent douze adresses de fraudeurs qu'il considère comme nuisibles.

§         Meceoo.fr

Deuxième outil de recherche le plus utilisé, le moteur de Yahoo remporte un franc succès. Pourtant, il ne propose pas de fonction de filtrage des résultats. Une lacune comblée avec Meceoo. Cette « surcouche logicielle » permet de créer des listes noires personnalisées et de rechercher des infos, à partir d'une sélection de sites définie au préalable par l'utilisateur.

§         Ujiko.com

Ujiko propose une panoplie d'outils de personnalisation du moteur de Yahoo, permettant d'en filtrer les résultats en excluant certains noms de domaines, des pages Web ou des sites entiers. En outre, l'internaute peut attribuer des notes aux sites qui l'intéressent. Mémorisées par Ujiko, celles-ci détermineront le classement des résultats de recherches futures.

§         Fooxx.com   

La pertinence des résultats de ce moteur n'est pas fondée sur la présence de mots-clés dans une page, mais sur l'appréciation des internautes. Chacun peut recommander des pages aux autres, rendre publics ses favoris, bloquer des pages. A la croisée du forum, de l'annuaire et du moteur de recherche, Fooxx gagnerait à accroître sa communauté pour devenir réellement indispensable.

 

3.6.  Le référencement grâce au plan du site

Il faut absolument créer un plan du site avec tous les liens existants car les pages à inscrire dans le moteur seront plus rapidement indexées puisque le moteur cherche en priorité les pages où il y a le plus de liens.

 Google a d’ailleurs lancé une campagne visant à optimiser cette partie des sites Web :

Version bêta de l’interface « Google Sitemaps »

 
De plus l’intérêt de la création d’un plan de site permet aux sites en Flash d’être référencés, car dans la même page, il y aura :

§         Le côté esthétique en Flash.

§         Le plan du site en HTML permettant un référencement par les moteurs.

3.7.  La contre-attaque de Microsoft : Live.com

« Windows Live : qu’est-ce c’est ?

Windows Live, c’est une idée toute simple : Internet, plus c’est facile à utiliser, mieux c’est pour vous. Avec Windows Live, ce qui vous intéresse quand vous êtes sur Internet (vos amis, les dernières infos, vos e-mails, vos recherches, etc.) est désormais dans un seul endroit. Et cette nouvelle façon de vivre l’Internet, c’est vous qui la contrôlez. Ce n’est qu’un début... Attendez-vous à découvrir beaucoup de nouveaux produits dans les mois à venir. »

Source www.live.com

Avec Live.com, Microsoft souhaite, d'ici à 2006, fournir des services en ligne aux PME et aux particuliers, comme l'hébergement de sites Web, la messagerie ou des applications de gestion ou de bureautique.

Microsoft souhaite ainsi concurrencer Google sur le terrain de l’interface personnalisable. C'est-à-dire que l’internaute retrouvera toutes les fonctions qu’il a grâce au Web traditionnel mais en plus il aura accès en ligne aux outils bureautiques Microsoft traditionnels (Word, Excel, Power Point, etc.). Il aura juste à se connecter à Internet et dans une fenêtre unique, il aura accès à tout un univers personnalisable selon ses besoins.

3.8.  Synthèse : Les facteurs-clés de succès du référencement naturel

En résumé il y a quelques actions simples à mettre en place pour réussir son référencement, son positionnement et donc augmenter son trafic ciblé :

 
§         Créer un contenu de qualité en optimisant la sémantique.

§         Ne pas utiliser le référencement comme une politique de « rustine ».

§         Utiliser des liens qui pointent vers le site (« webring » et « backlinks »).

§         Respecter les règles du Web Marketing Néthique.

§         Améliorer l’ergonomie en créant des rubriques et sous-rubriques claires et en ne chargeant pas trop ses pages (moins de 70Ko).

§         Optimiser le référencement des photos avec les balises « ALT » et « longdesc ».

 
Nous arrivons à la conclusion suivante :

Le référencement c’est 30 % de codage, 30 % de Webmarketing Néthique, 30 % de sémantique et 10% d’ergonomie. Ainsi, un bon codage et une aide à la navigation sont le gage d’un référencement réussi.

 

4.    Référencement : applications et solutions personnelles

Voici quelques solutions simples pour l’optimisation du référencement d’un site Web par les moteurs, sur lesquelles nous avons travaillé avec Didier Favre, Web Master de sites Web dynamiques (Regard) et spécialiste en réseaux, serveurs et hébergement.

 4.1.  Cas n°1 : Création d’un nouveau site

Un hébergeur Web limite les coûts en réalisant du surbooking d’espace disque. Par exemple Online.net propose 100 Mo pour 30 € par an à un taux de remplissage de 20% maximum.

 
En effet un site
Web professionnel et complet dépasse rarement les 20 à 30 Mo.  Il reste de la place libre utilisable pour le référencement. Le but est de créer un maximum de leviers en un minimum de temps. Pour les sites professionnels il faut en plus éviter d’alourdir le site. Pour cela il ne faut pas ajouter de pages sous l’arborescence de la page index principale.

 

4.1.1.    Solution :

Une solution consiste à ajouter des pages HTML de photos ayant des informations compréhensibles par les robots des moteurs de recherche. Ces pages HTML (très simples en code) sont reliées entre elles sous forme de liens qui réalisent un diaporama de photos.  Ces pages possèdent toutes un lien vers la page principale ou une page secondaire que l’on veut pousser. 

En effet, si on achète de l’espace d’hébergement pour 100 Mo et que notre site fait 20 Mo, il faut combler avec 80 Mo « d’autre chose » pour optimiser son positionnement. Par exemple, avec un diaporama de photos, mais en transformant toutes les pages XML en HTML (voir le chapitre « URL rewriting » dans la section « Le référencement dynamique ») et un bouton « Home ». « Home » sera à chaque fois présent et comme toutes les pages du diaporama pointeront toutes vers « Home » le référencement sera encore meilleur.

 

Après avoir réalisé un diaporama, il suffit d’avoir des sites amis (sites personnels type Wanadoo, Club-internet, Free, Cegetel…) qui créent des liens vers une des pages en fonction d’affinités.

4.2.  Cas n°2 : Les redirections 

Comme nous l’avons vu dans le chapitre « spamdexing », il existe plusieurs sortes de redirections plus ou moins « néthiques ». Dans les exemples ci-dessous, nous aborderons deux utilisations, l’une bonne, l’autre pernicieuse.

 

4.2.1.    Travail « néthique » sur le nom de domaine

Didier Favre avait juste une photo de lui sur une page intitulée « Didier à cheval » qui a fini par être bien référencée pour on ne sait quelle raison.

 Au même moment, son ami qui avait un site associatif sur le cheval en Corse assez bien référencé (note de 6 sur 10) a voulu changer de nom de domaine et il a effacé son ancien site. Du jour au lendemain son référencement a chuté, il était mal référencé.

4.2.2.    Solution :

La solution que nous avons trouvée est la suivante : nous avons copié le contenu de la page de son ami dans son unique (mais bien référencée) page « Didier à cheval » (pour augmenter le référencement du contenu) et inversé le nom des pages.

Que ce soit des pages de photos ou une URL particulière, il faut laisser du temps aux robots des moteurs de recherche de prendre en compte le site. Puis il faut modifier une ou plusieurs pages de sa nébuleuse de sites (c'est-à-dire les sites qui pointent sur nous et vers qui on pointe) en ajoutant des mots utiles en fonction de ce que l’on souhaite sur le site principal.

4.2.3.    Travail de manipulation de l’internaute et du moteur

Deux autres méthodes, dont nous avons déjà parlé (le « cloaking » et les pages satellites), sont beaucoup moins orthodoxes. Nous les avons illustrées plus loin dans un exemple qui les combine toutes deux de façon très efficace.

 

§         Le « cloaking » : quand un robot vient scanner une page Web, on peut mettre un mouchard, c’est-à-dire un bout de code qui repère le robot et le redirige vers la page « cloakée », c'est-à-dire la page optimisée pour le robot, permettant un très bon référencement de cette page (en général le « spammer » aura copié le code de la page d’un concurrent qui était lui très bien « ranké »). L’internaute lambda, lui, visionne une page non optimisée. Ici c’est le robot qui est dupé.

 

§         Les pages satellites : technique qui consiste à rediriger une page x vers une page y de façon rapide et invisible à l’œil de l’internaute. La page x qui devrait correspondre à un contenu demandé (après qu’un mot-clé ait été tapé dans un outil de recherche par un internaute) est redirigée vers une page correspondant à un contenu que l’on veut pousser.

 

Prenons un exemple.

Nous savons que les termes « jolie blonde » sont fortement demandés dans Google. On peut penser que les internautes tapant « jolie blonde » veulent accéder à des photos de charme et que ce sont majoritairement des hommes.

De notre côté, nous voulons utiliser l’énorme trafic que génère l’expression « jolie blonde », pour attirer le maximum d’internautes sur un site ayant attrait à un nouveau produit pour homme qui permet de diminuer la calvitie.

 

En fait, tout dépend du tempo de la redirection, c’est-à-dire en combien de temps on va passer de la page d’accueil « jolie blonde » à la page d’accueil « produit pour la calvitie ». Il faut que cette redirection soit quasi instantanée (question de programmation) pour que l’internaute n’y voie que du feu. Cependant, même si la redirection est rapide, Google, va quand même référencer la page « jolie blonde » en croyant qu’elle est pertinente (donc le moteur va bien la « ranker » car elle aura de surcroît un lien qui pointera en permanence sur elle). En conclusion ici, le moteur et l’internaute sont dupés.

 

4.3.  Cas n°3 : Travail sur un nom de produit

On peut aller plus loin. Il suffit d’aller sur un site gratuit (avec publicité) comme www.ulimit.com/fr et prendre des URL un peu spéciales mais qui reprennent le nom du site principal ou d’un produit du site principal.

Voila un exemple de site qui reprend le nom d’un produit : www.zettae2e.fr.vu. Le produit est Zettae2e et il appartient à NetTest mais Google aura du mal à discerner la véritable possession du nom entre NetTest et celui qui possède cette URL exotique si le site est mieux écrit. Attention ceci est à la limite du spamdexing et représente juste un exercice d’entraînement.

 

4.4.  Cas n°4 : Problématique due au rachat de NetTest par Anritsu

Le 11 août 2005, notre principal concurrent, la société japonaise Anritsu rachetait NetTest. La phase d’intégration des produits et ressources durant cent jours, nous saurons le 15 novembre ce qu’il advient de NetTest.

Cependant, intéressons nous au site Web. Il a été décidé par l’équipe d’intégration Marketing que chaque site pointerait vers l’autre, c’est un bon début.

Mais apparaît soudain l’enjeu crucial du positionnement des noms de produits mais aussi du nom de la marque.

Par exemple, le produit NetTest CMA 5000 est bien référencé sur NetTest.com, mais CMA 5000 sur Anritsu.com ne l’est pas. C’est bien la stratégie et l’organisation de l’entreprise qui doivent être adaptée et le Web cristallise cette nécessité d’adaptation et d’évolution.

 

4.4.1.    Solution :

La solution la plus probable est que le site NetTest ne sera pas détruit mais par exemple, chaque page devra être redirigée pendant un long moment (ce sera une redirection invisible pour ne pas troubler l’internaute). L’ancienne page « CMA 5000 NetTest » sera donc redirigée vers une nouvelle page « CMA 5000 Anritsu ». A partir de là, Google comprendra et pourra continuer son indexation sans rupture.

 

4.5.  Cas n°5 : Référencement grâce aux photos

Prenons l’exemple du site www.exeau.fr qui propose toute une série de produits de traitement de l’eau. Il comprend essentiellement un catalogue de photos et nous savons que les photos ne sont pas référençables par les moteurs de recherche. Il reste donc à savoir comment réaliser rapidement des pages Web pertinentes pour les robots à partir de ces photos.

 

4.5.1.    Solution :

La solution consiste à avoir un logiciel qui génère automatiquement des pages HTML (logiciel freeware Regard de Didier Favre) en ajoutant ce qu’il faut dans chaque page HTML pour le référencement des photos (balises « ALT et « TITLE ». Voici un exemple de diaporama généré automatiquement et avec un code source en phase avec les attentes des robots :

 

Page produit en mode diaporama automatique

Chaque page assure un lien vers la page principale du site et l’ensemble des autres photos, via une page de miniatures.

 On va sur une page produit où l’on voit une photo puis il faut cliquer sur l’icône « diaporama automatique ». On regarde le code source et là on voit bien que chaque nouvelle page avec une photo, pointe sur une autre page avec une autre photo. Nous obtenons donc un nombre de liens assez importants et le référencement sera donc meilleur.

 

5.    Conclusion

Bien sûr, « le référencement c’est facile et l’on connaissait déjà tout » (dixit certains adeptes du « bricolage » sur le Web). Mais si l’on veut gagner des clients grâce au Webmarketing, une démarche professionnelle s’impose. Il faut passer du temps à vérifier chaque mois sa position sur les moteurs en fonction des mots-clés et retoucher régulièrement ses pages en s’aidant des autres sites.

C’est pourquoi selon nous, le Web Marketing c’est de la peinture impressionniste.

 

Ainsi, après analyse des discussions menées avec les différents interlocuteurs cités dans ce document, la conclusion tient en plusieurs temps :

 

§         Les conséquences de toutes ces avancées technologiques et comportementales sur le Web tendent à confirmer que le levier du Web Marketing, c’est le référencement mais le référencement naturel.

Bien sûr il existe des outils de promotion comme dans le marketing traditionnel mais ces outils ne servent à rien si les entreprises ne comprennent pas l’enjeu du positionnement et de la différenciation grâce à une plus grande visibilité sur le Web.

 

§         Les discours sur le référencement se font de plus en plus véhéments et contradictoires, d’une part nous avons les agences qui proposent aux entreprises de concevoir du site Web jusqu’à la campagne Web ; d’autre part, nous avons les experts en référencement naturel qui luttent pour faire comprendre aux dirigeants qu’il ne suffit pas de payer des mille et des cents pour que leur Web Marketing soit efficace.

 

§         La fugacité et la relativité des résultats obtenus (un bon référencement n'est que provisoire) font du référencement une discipline un peu ésotérique qui laisse souvent sceptique le non-initié. Le but du référencement ce n’est pas d’arriver à positionner son site en premier sur un moteur de recherche mais c’est de générer du trafic ciblé sur ce site.

 

§         La clé de voûte d’un positionnement réussi c’est une politique d’échanges de liens pertinents et en bonne adéquation entre la cible et le contenu.

 

§         Le Web interactif devient un développement incontournable pour les entreprises informatiques. Le Web Marketing et les sujets associés (référencement, contenu, interactivité) sont fondamentaux pour la survie des entreprises sur des marchés où les clients vont chercher leur bonheur quotidien sur les moteurs de recherche (Google est souvent la page de démarrage du navigateur). 

 

Ainsi, les tendances lourdes comme le C2C, les sites hybrides, le référencement XML, la « Long Tail » et le Web Marketing Néthique rendent la tâche de plus en plus difficile au sein des organisations qui sont obligées de revoir aussi bien leur stratégie que leur organisation. En effet le Web Marketing impacte leur chaîne de la valeur de façon irrémédiable. Les sociétés qui ne le comprendront pas rapidement se verront distancer de loin par leurs concurrents, eux, plus réactifs.


6.    Annexes

6.1.  A propos de NetTest

NetTest est l'un des principaux fournisseurs d'instruments de test et mesure et de solutions de surveillance de réseau, conçus pour permettre aux principaux opérateurs de télécommunication et aux plus grandes entreprises internationales d'accroître leur profit. NetTest propose à ses clients des solutions offrant une analyse pointue des fonctions et des performances de leurs réseaux. Bien informés, ceux-ci peuvent ainsi prendre les décisions propres à améliorer la qualité de service de leurs réseaux, réduire leurs investissements en infrastructure, et par là même, accroître leur rentabilité.

6.2.  A propos de Forum trafic

Forum Trafic offre aux entreprises une solution unique pour améliorer la productivité et la profitabilité de leur chaîne logistique. Les bénéfices qui en résultent sont généralement suffisants pour couvrir l’investissement dans la solution Forum Trafic en moins de six mois. Cette augmentation de la profitabilité est apportée par :

§         Une forte réduction des coûts liée à l’augmentation de la productivité des équipes en charge de la gestion des chaînes logistiques étendues.

§         Des décisions de meilleure qualité pour le management grâce à une vision globale et en temps réel des flux interentreprises.

La solution Forum Trafic permet de réaliser des économies à toutes les étapes de la chaîne logistique et ce pour des investissements initiaux très limités.


6.3.  Formulaire de soumission Top Annuaire

 

6.4.  Exemple de site en 2.0 : Flickr

 

6.5.  « Notabene.net : Keyword analysis for NetTest »

 
NetTest.com

Keyword analysis, comments and definitions

 

Made by:                   Notabene.net A/S

                                   Rasmus Sørensen

 

Date:                          24. November 2004

 

Contents

We have now finished the analysis of keywords for www.nettest.com. The analyzed data and following findings can be found in the enclosed Excel-document. We have combined inputs from you, the content on the site and data from our own keyword databases.

The document includes 3 columns;

 

Keyword:                   The analyzed keyword/phrase

Searches:                  Number of projected searches performed on Google

Competition: The number of pages returned on the search at Google

 

The analysis shows a large number of keywords that have been search for in a month on the Google search engine. It also shows a number of words and phrases that might be relevant for NetTest, but haven’t been searched in the period.

 

This data gives us a good indication of which keywords and phrases that are being searched for. E.g. The demand for these words.

 

However, we have also analyzed the number of returning pages on Google for a search for the keyword. This gives us an idea of the competition/overall difficulty to rank for these words. The more pages a search is returning, the more difficult it is to rank to that word or term.

 

As a rule of thumb, we say that everything else being equal, competition below 1-100,000 results is “do-able”. Everything beyond that is somewhat difficult and might require harder work.

 

Key findings

We have sorted the keywords by competition below 200,000. The keywords are ranked from top till bottom, with the most attractive first. The keywords will be used to optimize the site and the content in order to make it rank on these words.

 

There are a lot of searches going on a lot of keywords.

 

A rather large portion of keywords are NOT being searched for. Note: keywords that have no are almost no searches, but still are very relevant (product names and numbers etc.) will be very well suited for PPC campaigns where you only pay for clics generated on these keywords.

 

Competition is rather high on most keywords, but not impossible to rank even on some of the higher competition words. This is mainly due to nettest.com having a Google PageRank of 6.

 

Notabene.net A/S

November, 2004

 

6.6.  Séminaire Imitiki / Chambre de Commerce de Paris Délégation de Paris


12 Décembre 2005 : séminaire référencement Google.

CCIP-Délégation de Paris propose, en partenariat avec Imitiki, deux séminaires pour apprendre à optimiser le référencement de votre site Internet sur Google.

Comment optimiser son référencement sur Google ? (9h-13h)

Référencement sur les moteurs de recherche : les pièges à éviter (14h-18h)


6.7.  « Notabene.net : Workshop for NetTest »

 

 

6.8.  Matrice produit-secteur Forum Trafic en fonction des critères N2H et n2H

N2H

Need to Have

 

 

 

 

n2H

nice to Have

 

 

 

 

 

 

 

 

 

 

 

Automobile

Aéronautique

Industrie légère

Industrie lourde

Distribution

Logistique

Réapprovisionnement

N2H

N2H

N2H

N2H

N2H

n2H

Distribution finale

N2H

N2H

n2H

n2H

N2H

N2H

Cross docking

N2H

N2H

N2H

n2H

n2H

n2H

Taxation Transport

N2H

n2H

N2H

N2H

N2H

N2H

Overseas

N2H

N2H

N2H

N2H

n2H

N2H

Affrètement

N2H

n2H

n2H

n2H

N2H

N2H

 


7.    Glossaire

Sources personnelles et Le Journal du Net.

 

Annuaire
Directory

Site Web se présentant comme un inventaire, spécialisé dans un domaine ou non, dans lequel les sites référencés sont classés par catégorie et accessibles au moyen de liens hypertextes. Afin de localiser plus rapidement un site ou une catégorie, les répertoires donnent accès à un module limité de recherche. Yahoo est l'exemple type de l'annuaire. Les annuaires sont alimentés manuellement contrairement aux moteurs qui indexent les pages Web de façon automatique.

 

API
Application Program Interface
Interface de programmation

Langage ou format de message utilisé par un programme applicatif pour communiquer avec le système d'exploitation ou un autre programme de contrôle, comme un système de gestion de base de données ou un protocole de communication. Techniquement, les API consistent en des appels de fonction, accompagnés des paramètres à communiquer à l'extérieur de l'applicatif.

 

Balise
Tag

Balise formée de caractères spéciaux servant à repérer des parties de texte devant recevoir un traitement particulier. Une balise HTML par exemple est constituée d'une directive sous forme de mot-clé (Font, Strong, Table, etc.) encadrée par les signes « inférieur à » (<) et « supérieur à » (>), qui permet de mettre en forme un texte et qui indique au navigateur Web comment devrait être affiché un document.

 

Black list
Liste noire

Liste des sites bannis par les moteurs de recherche. Ces derniers décident de bloquer l’apparition d’un site lors d’une recherche suite à des actions de référencement définies comme abusives (par exemple l'utilisation de « cloaking » ou de pages satellites). Figurer sur la liste noire d’un moteur a pour conséquence directe de devenir introuvable via ce moteur.

 

Blog/Weblog
Un weblog (mot-valise anglais issu d'une contraction de Web et log) est un site Web sur lequel une ou plusieurs personnes s'expriment de façon libre, sur la base d'une certaine périodicité. Dans son usage francophone comme anglophone, weblog est fréquemment raccourci en blog et francisé en blogue.

On désigne ainsi sous le même nom un journal intime anonyme, le carnet de bord d'un photographe ou encore un site d'anecdotes de travail fréquemment mis à jour. Les raisons de l'élan d'un weblog sont donc très variées, même quelques hommes politiques et leurs détracteurs se côtoient déjà sur ces espaces. Le mot weblog tient du concept et est assez vague pour autoriser une foule d'utilisations ; c'est pourquoi on ne peut pas parler de finalité unique de la blogosphère.

Cependant, des communautés de weblogs se créent autour d'une similitude (même outil de publication, même situation politique...).

 

Cloaking
En anglais, dissimulation. Technique consistant à présenter aux moteurs de recherche des pages différentes de celles que l'on affiche pour les internautes. Généralement, on débarrasse les pages Web de tous les éléments visuels, très attractifs pour l'œil, mais totalement inutiles et plutôt encombrants pour un robot de recherche. Les sites qui veulent faciliter la tâche aux robots et ainsi obtenir un bon référencement produiront deux types de page dont le contenu devrait en théorie être exactement le même, mise à part le graphisme et la présentation. Ils devront analyser l'adresse IP du visiteur pour savoir à qui ils ont affaire et fournir au robot la page "plus digeste" qui lui est destinée. Attention, certains éditeurs de moteurs n'apprécient pas cet exercice et déclassent résolument le site en guise de représailles.

 

Cookie
Témoin

Petit fichier au format Txt enregistré sur le micro-ordinateur d'un internaute à l'occasion de sa visite sur un site Web. En principe, ce fichier est utilisé pour permettre de reconnaître l'internaute (en réalité son ordinateur) à l'occasion de la consultation d'autres pages Web ou d'une nouvelle visite sur le site. Les cookies sont parfois utilisés par les éditeurs de solutions de mesure de trafic de type site-centric pour connaître le nombre de machines différentes qui ont visité le site sur une période donnée. Ils permettent aussi d'éviter à l'internaute d'avoir à s'identifier chaque fois qu'il visite un site pour accéder à des services qui nécessitent une inscription préalable.

 

Cybersquatting
Pratique abusive consistant à enregistrer un nom de domaine Internet dans l'unique but de le revendre à profit. La technique est extrêmement juteuse lorsque l'on dépose le nom d'une marque connue, qui devra débourser des sommes considérables pour le récupérer. Une des transactions les plus spectaculaires a porté sur le nom de domaine wallstreet.com, enregistré en 1994 pour 70 dollars et vendu un million, cinq ans plus tard. Certaines personnes ont déposé des quantités considérables de noms communs et de combinaisons de ces noms dans le but de faire fortune un jour. En août 1999, le gouvernement américain a pris une mesure de protection contre cette pratique avec l’Anti-Cybersquatting Consumer Protection Act. Les détenteurs de marques peuvent exiger jusqu'à 100 000 dollars de dommages et intérêts de la part des cybersquatters qui ont enregistré leur marque déposée ou un nom s'en rapprochant comme nom de domaine.

 

DHTML
Dynamic Hyper Text Mark-up Language

Version avancée du langage HTML, incluant des éléments interactifs réalisés à l'aide de langages de scripts tels que Javascript.

 

Un site Web dynamique est un site Web dont les pages peuvent être générées dynamiquement ou à la demande. On parle aussi par opposition de site Web statique.

Le contenu peut être obtenu en combinant un langage de scripts et une base de données. Dans le monde des logiciels libres, il s'agit souvent de PHP et MySQL. Il existe aussi des solutions propriétaires, par exemple celle de Microsoft, avec ASP et Access.

La présentation peut être changée et les pages adopteront alors instantanément la nouvelle apparence.

Il y a une troisième notion de logique. À l'aide d'un langage de programmation, le webmaster peut automatiser certaines tâches ou proposer une application Web comme un album-photo ou un forum de discussion.

Cette séparation contenu/présentation/logique est le credo des développements actuels.

Les avantages sont donc loin d'être négligeables.

Mais les sites Web statiques n'ont pas dit leur dernier mot. D'une part ils sont plus simples à créer pour les personnes sans connaissance technique suffisante et d'autre part, les hébergeurs Web ne proposent pas toujours la possibilité de faire un site dynamique.

Certains hébergeurs comme Free, proposent de créer un site dynamique (Avec PHP/MySQL) mais bloquent certaines fonctionnalités, comme la fonction mail.

 

Electronic Business
e-business
Affaires électroniques

Mode de fonctionnement qui consiste à transformer les principaux processus commerciaux d'une entreprise, en y intégrant les technologies Internet et leurs différents apports en matière de relation clientèle ou de flux logistique. Terme popularisé par de nombreuses campagnes de publicité de IBM.

 

Extranet
Extranet

Réseau informatique à caractère commercial, constitué des intranets de plusieurs entreprises qui communiquent entre elles, à travers le réseau Internet, au moyen d'un serveur Web sécurisé. Par extension, désigne plus généralement les sites à accès sécurisé permettant à une entreprise de n'autoriser sa consultation qu'à certaines catégories d'intervenants externes, ses clients ou ses fournisseurs en général.

 

FQDN
Fully-qualified domain name

Nom de domaine présentant sa construction hiérarchique depuis la racine du système et qui permet d'identifier avec précision un ordinateur branché à Internet.

 

Folksonomies

Le terme "Folksonomy", inventé par Thomas Vander Wal, provient de "Folks" (les gens) et "Taxonomy" (règles de classification) et signifie "classification par les gens".

 

Dans le Web Interactif traditionnel, le webmaster impose des règles de trie de la base de données. En surfant de page en page l’utilisateur est obligé de suivre la logique qui est liée à la classification des informations. Le besoin est d’avoir plus de souplesse en imaginant que les utilisateurs veulent avoir leur propre idée sur le classement.

 

Le principe des folksonomies correspond à une action possible des utilisateurs d’un site sur le classement des données du site, avec pour objectif de faciliter l'accès au contenu puisque ce sont les utilisateurs qui le caractérisent.

 

ICANN
Internet Corporation for Assigned Names and Numbers

Association internationale à but non lucratif, fondée en 1998 siégeant aux Etats-Unis. A succédé à l'IANA (International Assigned Numbers Authority). L'ICANN gère les adresses Internet, les noms de domaine et les paramètres associés aux protocoles Internet (numéros de ports, routage, etc.). De plus, l' ICANN tient à jour, avec Network Solutions, une liste d'organismes agréés pour l'enregistrement et la mise à jour des noms de sites.

 

IAB
Interactive Advertising Bureau

L'IAB (Interactive Advertising Bureau) est une association créée en 1998 dont la mission est triple :

- structurer le marché de la communication sur Internet ;
- favoriser son usage ;
- optimiser son efficacité.

L'IAB est d'une part, au service des annonceurs et de leurs agences conseil pour les aider à intégrer Internet efficacement dans leur stratégie de marketing globale et, d'autre part, entend proposer des standards, des exemples de pratiques professionnelles aux nouveaux acteurs intégrant le marché des média sur Internet.

L'IAB, c'est par ailleurs un réseau d'experts au service des autres organisations professionnelles, des institutions et des média qui s'interrogent sur l'impact du développement de cette nouvelle donne économique.

 

Intranet
Intranet

Site réservé, en général aux collaborateurs d'une même entreprise. Ce réseau privé, fonctionnant sur le modèle Internet (en particulier en ce qui concerne les protocoles d'échange de données) permet de regrouper des ressources et de les mettre en commun : informations, services, procédures, outils, etc.

 

IP address
Chaque équipement, serveur ou poste client connecté au réseau doit avoir une adresse IP unique. A l'origine, l'organisme IANA (Internet Assigned Numbers Authority) était chargé d'attribuer ces adresses. Il a été remplacé par l'ICANN (Internet Corporation for Assigned Names and Numbers).

 

Java
Langage de programmation développé par Sun, inspiré de C++. Fonctionnant sur le principe machine virtuelle, il peut s'adapter à n'importe quel ordinateur. Les programmes Java peuvent être appelés depuis des documents HTML ou de manière autonome. Lorsqu'ils s'exécutent à partir d'une page Web, on les appelle des applets Java. Lorsqu'ils s'exécutent sur un serveur Web, on les dénomme servlet.

 

 

Javascript
Langage de rédaction de scripts, destiné aux utilisateurs non spécialistes, qui permet d'intégrer des instructions Java préprogrammées dans la construction d'un document Web. Alors que le langage Java permet aux programmeurs de créer de nouveaux objets et des mini-applications, le langage JavaScript permet aux concepteurs de pages Web de fusionner des applets ou de les programmer de façon personnalisée, sans avoir à manipuler de code Java. Le langage JavaScript, qui est lui-même une application écrite en langage Java, a été développé par Sun et Netscape, originellement sous le nom de LiveScript.

 

LCEN

La Loi pour la Confiance dans l’Economie Numérique a été votée le 21 juin 2004 après deux lectures à l’Assemblée Nationale et au Sénat et un recours auprès du Conseil Constitutionnel. Très attendue par tous les acteurs professionnels et les internautes, cette loi a pour but de renforcer la confiance dans les échanges sur Internet en établissant clairement la responsabilité de chacun des acteurs. A terme, les internautes doivent être mieux protégés contre la présence de sites illicites (racistes ou pédophiles), le démarchage, la publicité en ligne, et la cybercriminalité dont ils sont parfois victimes. Le droit des contrats électroniques (en particulier des commandes en ligne) est également régi par ce texte. Cette loi transpose en droit français la directive européenne de juin 2000 sur le commerce électronique. La responsabilité des intermédiaires techniques a été clairement définie et plusieurs jugements ont d’ores et déjà été rendus en 2004 en s’appuyant sur cette loi pour exonérer des hébergeurs de responsabilité vis à vis des contenus. Par ailleurs, de nombreux sites de vente en ligne mais également de fourniture de services ont commencé à appliquer les articles sur le spam en recueillant les consentements des internautes. Les décrets d’application sont en cours de rédaction.

 

Moteur de recherche
Search Engine

Programme qui indexe de façon automatisée le contenu de différentes ressources Internet, et plus particulièrement de sites Web, et qui permet à l'internaute qui utilise un navigateur Web de rechercher de l'information selon différents paramètres, en se servant notamment de mots-clés. Google, Alta Vista, Infoseek... sont des exemples de moteurs de recherche.

 

Network Solutions
Société américaine implantée à Herndon en Virginie, fondée en 1979 pour exercer du consulting. Elle a été la première firme privée à gérer des noms de domaine Internet, activité qu'elle poursuit à l'heure actuelle aux côtés de l'ICANN. En 1993, suite aux accords passés entre AT&T, General Atomic, la National Science Foundation et la création du projet InterNIC, Network Solutions a assuré la gestion des noms de domaine du gouvernement. Au début, la société fournissait gratuitement ses services mais a commencé à les faire payer en 1995. En 1998, elle a développé des interfaces de bases de données destinées à faciliter le travail de tous les organismes agréés d'enregistrement et continue à maintenir la base centrale qu'ils utilisent. Network Solutions a été achetée par Verisign en 2000.

 

Occurrence/Indice de densité
Nombre de fois où un mot apparaît dans un texte. Cette notion est utilisée pour mesurer l'indice de densité. Plus le mot apparaît dans le texte d'une page Web, plus cette page aura de chances de ressortir lors d'une requête dans un moteur.

 

Opt-in mailing list
Liste d'inclusion

Liste de diffusion de courrier commercial, comportant les adresses électroniques de personnes qui ont clairement exprimé leur volonté de figurer sur cette liste et de recevoir de la publicité. L'option permettant la réception de ce type d'informations se concrétise par une case spécifique placée dans un formulaire d'inscription, case que l'internaute doit cocher de lui-même. Opt-in s'oppose à opt-out.

 

Opt-in / Opt-out

Manière dont sont collectées les données personnelles (en particulier des adresses électroniques) des internautes. On distingue quatre possibilités d'inscription d'un internaute à une liste de diffusion. Dans la liste qui suit, la liberté de choix de l'internaute est de plus en plus réduite. 1/ L'opt-in actif : l'internaute doit volontairement cocher une case ou faire défiler un menu déroulant pour que son adresse (ou d'autres données) soient utilisées ultérieurement à des fins commerciales. 2/ L'opt-in passif : une case est déjà précochée ou un menu déroulant déjà positionné sur oui (à la question voulez-vous recevoir des sollicitations ultérieures ?). Avec l'opt-in, l'accord de l'internaute est explicite. 3/ L'opt-out actif : Il faut cocher une case ou sélectionner un menu déroulant pour ne pas recevoir de message ultérieurement. On considère l'accord de l'internaute comme acquis par défaut, comme implicite. 4/ L'opt-out passif : en s'inscrivant à un service, l'internaute est automatiquement inscrit à une liste de diffusion sans qu'il ait la possibilité de changer cela au moment de l'inscription. La désinscription ne peut se faire qu'après l'inscription. L'accord de l'internaute est demandé a posteriori.

 

PageRank
Système de classement des pages Web mis au point par les fondateurs de Google. Chaque lien pointant d’une page à une autre est considéré comme un vote pour cette page. A cet indice s’ajoute une "note" selon la page qui contient le lien : les liens présents dans des pages jugées importantes par Google ont plus de "poids" et contribuent ainsi à "élire" d'autres pages. Autrement dit, il s’agit d’un critère mathématique qui permet de mesurer la popularité d'une page sur le Web. Cette note va de 0 à 10, elle est consultable sur la Google Toolbar.

 

Permission Marketing
Technique de marketing dans laquelle on demande à l'internaute son avis sur les informations promotionnelles qu'on lui fera parvenir. Plusieurs méthodes peuvent être employées selon que l'on désire forcer (pas du tout, un peu, beaucoup) le désir du consommateur potentiel. Par exemple, à la fin d'une lettre d'information, la case "Voulez-vous recevoir plus d'informations sur tel produit ?" pourra être précochée ou non. Quoi qu'il en soit, le permission marketing, mercatique de la permission en français, fait de l'internaute un acteur de la consommation qui accepte ou non que la marque lui envoie de l'information concernant des sujets qu'il aura déterminés au préalable. Il ne "subit" plus la publicité comme un téléspectateur passif qui voit ses émissions coupées par des spots sur lesquels on ne lui a jamais demandé son avis.

 

Portail
Portal

Site qui se veut une "porte d'entrée" sur le Web mais qui fournit un très large éventail de services et de contenus susceptibles de retenir l'internaute. L'offre de base consiste en un moteur de recherche et/ou un annuaire de sites, mais aussi des informations venant de sources multiples le plus souvent agrégées, généralistes ou thématiques. Le portail est souvent le site par lequel un internaute entame son "surf". Les grands portails sont l'oeuvre de moteurs ou d'annuaires (Yahoo, Voila...) ou bien de fournisseurs d'accès Internet (Wanadoo, Club-Internet...) Le "portail thématique" joue le même rôle sur un secteur limité : un portail médical, un portail high-tech... Le portail d'entreprise est, lui, un Intranet qui donne au personnel d'une entreprise et éventuellement à ses partenaires accès, d'une part, à l'ensemble des données et des informations qui appartiennent à l'entreprise en question, que ces données soient structurées (ex. : bases de données internes) ou non (ex. : documents de traitement de texte), et, d'autre part, à une série de sites Web ou de portails verticaux qui se rapportent à la sphère d'activité de l'entreprise.

 

Registrar
Responsable des noms de domaines

Organisme autorisé servant d'intermédiaire entre l'opérateur de domaine de tête et les détenteurs d'un nom de site Web, qui se charge de l'enregistrement et de la modification des noms de sites dans les répertoires touchant les domaines de second niveau utilisés par ses clients. Pour être agréé, l'organisme responsable des noms de domaine doit rencontrer les impératifs techniques et administratifs ainsi que les conditions physiques imposées par l'opérateur de domaine de tête, de qui il tient sa licence. En France c'est l'Afnic (Association Française pour le Nommage Internet en Coopération) qui supervise l'attribution des noms de domaine en .fr. Cette association à but non lucratif régie par la loi du 1er juillet 1901 a été créée en décembre 1997 par la volonté conjointe de l'Inria et de l'Etat représenté par les ministères chargés des télécommunications, de l'industrie et de la recherche.

 

RSS (ou fil RSS)
Really Simple Syndication

RSS, sigle de Really Simple Syndication (syndication vraiment simple), ou de Rich Site Summary (résumé complet d'un site) est un format de syndication de contenu Web. C'est un dialecte de XML. Il existe sept formats différents de RSS, ce qui rend indispensable l'établissement d'une norme.

Il est à noter que Syndicate, en anglais, est en rapport avec le journalisme et la vente d'un article à plusieurs journaux. Mais en fait le standard permet de diffuser toutes sortes d'information, d'alertes, de mises à jour de listes ou d'événements. Really Simple Syndication se rapproche donc d'une diffusion journalistique simplifiée.

Le format RSS est notamment utilisé pour la diffusion d'actualités sur Internet.

Exemples : Actifpub, Blauer Bote, EspaceNews.com, Everyfeed, Feeds2Read, LaMoooche, Pretty-RSS, Retronimo, YourFeeds

 

Spam
Pollupostage

Courrier électronique commercial non sollicité par l'internaute qui le reçoit. Cette pollution de boîtes aux lettres, pratiquée par les "spammers" ou spammeurs, arrive en tête des pratiques les plus critiquées par les internautes. Egalement appelé au Québec polluriel, contraction de courriel pollueur. Le terme spamming viendrait de la marque commerciale Spam, sigle de l'expression anglaise Shoulder of Pork and hAM (viande en conserve).

 

Wiki

Logiciel à la fois système de composition de pages Web, outil de travail collaboratif et espace de discussion. Il s'exécute sur le serveur et permet aux utilisateurs de modifier le contenu d'une page Web librement, avec n'importe quel navigateur. Un Wiki reconnaît les hyperliens et dispose d'une interface textuelle simple pour créer de nouvelles pages, les liens se faisant à la volée. Wiki vient de l'hawaïen "wikiwiki" qui signifie "vite", "informel".

 

SEMA7
Search Engine Marketing Association

SEMA7 est une association qui se fixe pour objectif de faire progresser le niveau des prestations de référencement et permettre une meilleure communication entre professionnels.

SEMA7 est une association créée en décembre 2003, qui regroupe 20 référenceurs. SEMA7 organise des dîners discussions tous les premiers mardi du mois. Elle a mis en place des procédures de médiations pour régler à l’amiable les litiges autour des liens sponsorisés et des prestations de référencement.

 

Trusted Feed
Technique de référencement payant sur certains moteurs de recherche. Elle consiste à alimenter de manière automatisée des moteurs, une relation de confiance étant établi entre le moteur et le client qui soumet des pages à référencer. Cette technique permet en particulier de référencer du contenu difficile à indexer de manière naturelle, tel le contenu des bases de données, les pages maintenues par des systèmes de gestion de contenu ou les pages conçues en Flash.

 

Typosquatting
Le typosquatting est une forme évoluée du cybersquatting. Il consiste à déposer un nom de domaine très proche d'un autre nom de domaine sur lequel communique une entreprise. Deux objectifs sont poursuivis : 1/ Capter une partie du trafic du site officiel, en espérant qu'un certain nombre d'internautes feront une erreur de frappe dans la fenêtre de leur navigateur ; 2/ Capter des emails adressés à la société victime du "piratage". Le procédé est simple : il suffit, sans faire pointer le nom de domaine vers un site, d'activer ses serveurs MX et d'indiquer que l'on veut recevoir tous les emails envoyés à "xxx@[nompiraté]".

 

W3C
World Wide Web Consortium
Consortium W3

Organisme officiellement chargé de la normalisation de tout ce qui concerne le Web, et particulièrement des évolutions du langage HTML. Avant la création du consortium W3C, c'est un autre organisme, l'IETF (Internet Engineering Task Force), qui assumait cette responsabilité. Le World Wide Web Consortium (W3C) a été créé par Tim Berners Lee, l'inventeur du Web, au mois d'octobre 1994. Cette organisation regroupait à son origine, le MIT (Massachusetts Institute of Technology) et le CERN, et bénéficiait du support de la DARPA (Agence de recherche de la Défense américaine), et de la Commission Européenne. L'INRIA et l'université de Keio au Japon se sont rapidement associés au projet.

Le but du W3C est de conduire l'évolution technique du Web, en assurant la promotion de l'interopérabilité. Concrètement, cela se traduit par le développement des spécifications techniques des nouveaux standards. Le W3C a notamment publié les spécifications des diverses versions du standard HTML, mais aussi de la norme XML, ou encore du format d'image PNG. Sur le long terme, le W3C veut assurer l'universalité de l'accès au Web, garantir une utilisation efficace des ressources du Web par les utilisateurs, et guider le développement du Web en considérant les nouveaux enjeux sociaux, commerciaux et juridiques induits par cette technologie. Le W3C compte maintenant parmi ses membres des entreprises, comme France Telecom, IBM, Microsoft, Oracle et bien d'autres.

 

Le W3C vise à rendre un site accessible au plus grand nombre et sur toutes les plates-formes. Son intérêt dans l'optimisation n'est pas encore démontré malgré les tests réalisés. Les sites W3C ne sont pas mieux référencés à ce jour, ce qui est triste d'ailleurs. Cela ne doit pas enlever l'intérêt du W3C qui est aussi de s'ouvrir au plus grand nombre. Mais là ce n'est plus de référencement dont on parle.

 

Webring
Anneau de sites

Système de navigation en forme de boucle qui relie des sites abordant des sujets communs et qui permet à l'internaute de passer facilement de l'un à l'autre. Sur la page d'accueil de ces sites, un sélecteur permet de passer de site en site en utilisant des liens hypertextes.

 



Alexandra Raimbault