Référencement ou web-positions ? |
Par Guy Coslado, Juin 2000. Ce document est lisible sur: http://www.coslado.com/docs/referencement-or-positions.html et a pour sujet les nouveaux éléments de réflexion qui permettent de définir une stratégie de promotion d'un site. En 97, j'ai rédigé un document pour faire le point sur le référencement sur
l'internet de l'époque. Ce document se trouve sur: A l'époque le monde de l'internet et notamment celui des moteurs de recherche
était encore simple et les référencements pouvaient se faire simplement. Aujourd'hui, en 2000, l'internet a changé et les répertoires (ex: Yahoo) et les
moteurs de recherche (Ex: AltaVista) sont devenus non seulement plus nombreux mais
aussi beaucoup plus volumineux et surtout leurs méthodes se sont considérablement
sophistiquées, notamment grâce à une véritable révolution culturelle sur l'internet,
qui a pour principal dazibao: "Ce qui est crédible ce n'est pas ce qui est dit dans les pages de votre site, mais ce que disent les autres sites de votre site". Parties de Google et développées pour lutter contre le SPAM d'index, ces idées ont
conduit à une véritable prise de conscience de la non-fiabilité des self-références. Elles modifient dès aujourd'hui le comportement des moteurs de recherche et à l'avenir
auront très probablement un impact sur la communication traditionnelle. Pour répondre à l'évolution des moteurs de recherche certains acteurs de l'internet
ont créé des pages de gonflage artificiel de popularité ("programme d'échange de pages de liens")
qui si elles peuvent tromper encore quelques moteurs de recherche ne peuvent surement
pas amener directement sur votre site des visiteurs correspondant à votre public et
d'autant moins augmenter votre crédibilité. Pour lister tous les moteurs de recherche et les répertoires où vous pouvez faire
référencer votre site, la visite de: ou en langue française : vous convaincra sur l'ampleur de la tâche à effectuer pour référencer votre site
en aveugle. Pour faire face à cette pléthore de référencements potentiels, de nombreux services
d'automatisation de référencement sont apparus: Pour le web mondial: Comme pour le web francophone: Les résultats visibles dans les statistiques (referrers) des sites montrent qu'en
fait peu de pages (sur l'ensemble des pages où il est possible de se référencer)
sont réellement utiles et que ce sont surtout les pages spécialisées qui font
affluer les hits. Au chapitre 'Les autres sites qui vont vous procurer des visiteurs' que j'évoquais sur
http://perso.club-internet.fr/guyco/docs/webbiz1.htm#1.1.5
si les demandes de référencement se font toujours e.g. par email, aujourd'hui
la localisation de ce type de page à forte popularité n'est plus faisable manuellement. En considérant qu'aujourd'hui les moteurs de recherches utilisent ce type de
page pour mesurer la véracité des contenus des pages d'un site, être référencé
sur ce type de page devient crucial et principalement pour les sites non-généralistes. Les pages de type répertoire spécialisé sont les petits ruisseaux qui font
couler les grandes rivières (de hits) sur les sites. Tout répertoire
spécialisé appartenant à la sphère thématique d'un site est un affluent
potentiel. Ces pages sont celles qui vont crédibiliser le contenu des
sites et sont donc cruciales pour être prêt à affronter la nouvelle vague des
systèmes d'information. Toutes ces pages n'ont pas le même trafic,la même notoriété dans la sphère
thématique du site de référence (e.g. de votre site) et il convient de sélectionner
le bon grain de l'ivraie pour ne pas avoir à référencer manuellement des centaines
ou milliers de pages. Le référencement sur une seule des pages du haut du panier vaut plus
que le référencement de milliers de pages à faible trafic (et peut-être nul). Dans tous les cas ce qui nous intéresse c'est que nos sites soient référencés
sur des pages de bonne qualité et visitées par des internautes de notre sphère
thématique. Le référencement sur des pages à moyen trafic mais hautement spécialisées dans une
sphère thématique, vaut souvent plus que le référencement sur un site généraliste
à haut trafic mais forte dispersion.
|
La veille sur la position de votre site |
En place d'un référencement quantitatif, il convient de faire un référencement
qualitatif. Pour cela, il convient de faire une étude sur la position de votre site et des
sites concurrents. Cette étude consiste à rechercher l'univers (et les points de passage) des
internautes d'une sphère thématique. Ceci, se fait avec des agents de veille
automatisée spécifiques, en plusieurs étapes. Entre chaque étape, on affine (humainement) un corpus topique pour guider les
agents intelligent qui vont rechercher sur le web (de la sphère
thématique) l'ensemble des informations nécessaires. Cette veille automatisée permet d'avoir un rapport comportant la liste des
pages: par ordre décroissant du pourcentage de pénétration de la sphère
thématique; qui concernent la thématique du site à référencer, au niveau mondial. Cette longue liste décrit de fait l'univers d'une communauté virtuelle. Cette veille thématique se décline aussi par langage, pour les sites
multilingues. La liste des urls qui apparaissent dans ce rapport permet d'identifier
immédiatement pour CHAQUE thématique (et donc un corpus topique) et grace
aux comparaisons de pourcentage de pénétration de la sphère thématique:
On apprend de cette manière qu'en fonction du langage utilisé, il existe des
moteurs de recherche et des répertoires généralistes qui disposent d'une meilleure
pénétration de la sphère thématique que les leaders mondiaux. De la même manière, la pratique amène à s'apercevoir que les sites majeurs de référence
ne sont pas les mêmes suivant la thématique et sont parfois très éloignés des croyances
répandues chez les internautes. De ce rapport on déduit les moteurs et répertoires généralistes où il
faut utilement se faire référencer.
|
Les pages où votre site doit être référencé (toprefs) . |
Des informations du rapport précédent on extrait l'information
de base permettant la localisation des meilleures pages potentiellement
génératrices de hits . L'agent de la veille automatisée recherche sur le web les pages où
votre site doit être référencé, évalue leur coéficient de pénétration et génère
un rapport ou apparait la liste des pages où votre site doit être référencé(toprefs). L'agent classe les urls de ces pages par ordre décroissant de 'hits potentiels'
pour votre site, il suffit donc de retenir le haut de la liste pour effectuer
un référencement optimum. La liste classée (toprefs) servira aux taches de référencement. Parallèlement à ces visites l'agent conduit une recherche étude linguistique
qui servira pour une partie de la charte de référencement.
|
Charte de référencement (refchart). |
L'étude de référencement permet d'établir une charte de référencement qui
sera utilisée au moment des référencements manuels ou automatiques. Cette charte assure l'unicité de communication, le respect des contraintes
techniques de communication spécifiques aux systèmes d'information et facilite
les tâches de référencement. Accessoirement l'étude de référencement conduit à définir les textes opportuns
(e.g. mots-clefs,descriptions) à utiliser sur votre site et amène à modifier et
optimiser(pour les systèmes d'information) des pages de votre site. Elle définit
aussi les textes à utiliser pour vos référencement dans les répertoires généralistes
et spécialisés. Ces textes doivent à la fois servir d'accroche publicitaire mais doivent être
optimisés pour obtenir le meilleur résultat avec les moteurs de recherche de
nouvelle génération. Ces textes sont donc fixés par la cellule responsable de l'image de la
société de concert avec le responsable de l'étude de référencement.
|
Automatisation et veille sur la concurrence. |
L'intéret de la veille automatisée de pénétration d'une sphère thématique
c'est qu'elle est reproductible. A intervalle régulier, il convient de la relancer. Les nouveaux rapports font apparaitre, les sites sur lesquels la société (votre site e.g.) n'est toujours pas référencé et les sites(ou pages) émergeants. Un comparatif historique fait apparaitre les mouvements de vos concurrents et
permet l'identification des créneaux émergeants sur le web. On identifie de la même manière les nouveaux venus et si leur progression
est significative, c'est qu'il se passe quelque chose de nouveau dans votre
sphère thématique. Accessoirement, il est possible d'effectuer des veilles de positions
automatisées sur les entreprises concurrentes. Réalisées à divers intervalles
de temps, elles permettent de mettre en relief avec plus de précision les
mouvements des concurrents.
|
En guise de conclusion |
Ce type de méthode de référencement correspond à une stratégie qui tient compte des
nouvelles technologies des moteurs de recherche, il nécessite l'usage d'agents
intelligents pour obtenir les informations permettant une vue stratégique d'ensemble. Cette méthode amène une vue exacte de la pénétration d'une société et de ses concurrents
dans une sphère thématique et plus généralement dans le monde de l'internet. On dispose de plus d'une vue exacte des sites où il faut se référencer et non
d'idées subjectives sans aucun fondement réel. L'étude de référencement à l'aide d'agents intelligents est aujourd'hui primordiale et fait la véritable valeur d'un référencement La tâche du référencement peut être effectuée par du personnel sans qualification
spéciale dès lors que l'étude lui a indiqué où (toprefs) et comment référencer
(refchart). En 2000, conduire une campagne de référencement sans l'aide d'agents intelligents
spécialisés est aussi infructueux que vouloir rechercher une information sur le web,
sans l'aide de moteurs de recherche, en surfant d'url en url avec un simple navigateur. Ce type de démarche relève plus des croyances que d'une démarche rigoureuse. L'intox est l'aliment principal de ces croyances et c'est de cette constatation
qu'est partie et va se nourrir la nouvelle vague des systèmes d'information de
l'internet.
|