L’évolution du référencement est intimement liée à l’évolution des outils de recherche. C’est le développement d’Internet qui a nécessité l’activité du référencement. Comme nous ne pouvons décrire l’évolution du référencement sans le positionner dans le développement d’Internet, nous allons relater parallèlement leur développement.
Internet | Référencement |
---|---|
1990 | |
Création du premier instrument de recherche d’information par ftp : « Archie » | |
1992 | |
Lancement du premier instrument de recherche de textes | |
1993 | |
Mise au point du premier robot Web | |
1994 | |
Galaxy, le premier annuaire est mis en service.Deux étudiants de l’Université de Standford lancent Yahoo!C’est au tour du Web robot Webcrawler d’entrer en fonction.Lycos est lancé et répertorie 54 000 documents. | Les concepteurs de sites et leurs propriétaires commencent à soumettre leurs sites pour l’indexation sur le Web.Ce sont les premiers balbutiements du référencement. |
1995 | |
Infoseek est dévoilé et devient l’engin de Netscape.
Metacrawler offre la possibilité de la métarecherche. Six jeunes entrepreneurs lancent Excite. Fin 1995, Altavista gagne la faveur populaire par des fonctionnalités uniques. |
Les logiciels de soumission automatique font leur entrée. Peu après, des concepteurs et des propriétaires de sites en profitent pour lancer des centaines de soumissions par jour pour tenter d’accaparer les positions sur les requêtes des moteurs. Ces derniers contrent ces tentatives de « spamindexing » en pénalisant ou bannissant ces abuseurs.Les concepteurs de sites se rendent compte de l’avantage d’insérer des mots-clés dans les balises du code HTML.Le référencement prend plus d’importance. |
1996 | |
Inktomy est fondé avec une nouvelle technologie de compression des données.
Lancement de Hot Bot, cet engin peut indexer 10 millions de pages par jour. Looksmart voit le jour et propose un annuaire par catégories. |
Les webmasters et les développeurs d’outils de recherche s’affrontent constamment.
Étudiant l’environnement des moteurs de recherche, les webmasters inventent de nouvelles méthodes pour forcer le positionnement et les développeurs d’engins changent leurs algorithmes de positionnement pour contrer leurs stratégies. |
1997 | |
Ask Jeeves inaugure un outil de recherche qui se veut « user friendly ». Go To lance une nouvelle méthode de positionnement : le » Pay Per Click » Northern Light, le premier engin de recherche spécialisé pour l’industrie, voit le jour. |
Les premiers logiciels de vérification de positionnement sur les engins de recherche font leur introduction. Les résultats du référencement peuvent être vérifiés facilement par les optimisateurs des sites. |
1998 | |
L’Open Directory Project est lancé en juin. À l’aide de bénévoles, ils créent un annuaire thématique avec un contrôle de qualité.
En septembre, deux finissants de Standford lancent Google qui utilise des algorithmes de positionnement jugeant de la pertinence et de la popularité d’une page ou d’un site. Également en septembre, est lancé MSN Search, développé par Microsoft. Direct Hit introduit une nouvelle technologie qui calcul la popularité d’un site par le nombre de passage des internautes sur celui-ci. |
Les engins de recherche commencent à intégrer la valeur du contenu et la popularité d’un site comme facteur de positionnement et le référencement devient plus complexe.Le référencement est devenu une spécialité qui doit maintenant tenir compte de la pertinence des contenus.L’époque de gloire du « Spam » commence. Pour s’accaparer les meilleures positions, plusieurs n’hésitent pas à incorporer des milliers de mots-clés invisibles à leurs pages. |
1999 | |
Au cours de l’année, quelques gros joueurs ajoutent leur participation. Disney lance Go et NBC crée le portail NBCi. La compagnie norvégienne Fast lance Alltheweb, le premier engin à atteindre 200 millions de pages Web. |
Les moteurs commencent graduellement à contrer le « Spam » par mots invisibles.
Ils optent pour des informations hors sites et qui ne semblent pas à la portée des concepteurs pour régulariser le classement. La popularité des liens fait son apparition comme facteur de positionnement mais les spammeurs utiliseront cette popularité des liens pour poursuivre leurs actions. C’est la naissance des « Link Farms », des sites où l’ont peut enregistrer des liens et qui n’existent que pour créer une fausse popularité et tromper les outils de recherche. |
2000 | |
La qualité du classement de l’annuaire Open Directory, qui est disponible à la majorité des engins de recherche, augmente la pertinence et l’intégrité des résultats des requêtes.
Plusieurs engins de recherche optent pour la formule « Pay Per Click ». D’autres annuaires et moteurs exigent des frais lors de la proposition d’un site à l’Indexation. |
L’intégration des résultats de l’Open directory force les optimisateurs de sites à créer des sites avec un meilleur contenu.Des annonceurs comprennent la possibilité d’un gain de positionnement sur des mots clés difficiles en adoptant le système « Pay Per Click »Les liens qui mènent vers un site sont jugés selon leur valeur, rendant les « Link Farms » inutiles et même nuisibles pour le positionnement. |
2001 | |
La location de positionnement, « sponsorisé », se généralise sur les annuaires et les moteurs de recherche qui deviennent tous des instruments hybrides.
Beaucoup de mouvements se produisent dans le monde des moteurs de recherche. Plusieurs ne deviennent que des portails alimentés par des moteurs plus populaires. Ask Jeeves, achète Teoma et ferme Direct Hit, Looksmart acquière Wisenut, Go To devient Overture et se spécialise dans le e-business. Google fournit ses résultats à plusieurs autres moteurs qui en deviennent des clones. Overture fait la même chose. |
D’autres techniques ont vu le jour pour fausser les résultats des outils de recherche. Nous avons vu apparaître les pages d’entrée, « Doorway Pages », spécialement construites pour influencer le positionnement sur les moteurs; les sites miroirs; le « Cloaking », une redirection à partir du serveur, aussi pour présenter un contenu différent aux moteurs. Ces derniers ripostent fortement.
De nouvelles méthodes sont constamment employées, comme les liens croisés, des textes cachés dans des couches HTML superposées et invisibles ou les sites construits en cadre unique. Les moteurs luttent pour contrer ces méthodes et de nouvelles naissent constamment. |
2002 – 2012 | |
Les moteurs de recherche continuent à évoluer et deviennent très sophistiqués.
La compréhension de leur constante évolution et de leur fonctionnement, qu’ils cachent soigneusement, devient essentielle pour le positionnement. Aujourd’hui, nous ne parlons pratiquement plus DES moteurs de recherche mais uniquement de Google qui monopolise la grande majorité des recherches par moteur dans Internet. |
Le référencement devient une spécialité complexe où il faut constamment se ressourcer.La promotion d’un site doit maintenant tenir compte de plusieurs éléments : l’analyse des comportements de la clientèle, l’analyse de la concurrence, mettre en œuvre un programme de popularité externe au site, l’assurance de la fiabilité et de l’acceptation du site par les outils de recherche et un suivi alerte et constant. |