Code d’éthique de Appalaches Web
Dans le but de :
- respecter les attentes de nos clients et d’atteindre leurs objectifs
- diffuser avec le plus de justesse et d’efficacité la qualité de l’information des clients qui ont recours à nos services
- travailler à présenter de l’information de haute qualité et facile à utiliser par les chercheurs sur Internet
Appalaches Web adhère volontairement au code d’éthique suivant :
Code d’éthique Google
Appalaches Web endosse entièrement les règles d’utilisation éditées par Google dans son Google Webmaster Guidelines.
Code d’éthique référencement et SEO
Appalaches Web ne causera aucun préjudice à un client.
Appalaches Web n’utilise aucune technologie ou procédé pouvant causer un préjudice au site d’un client en le dévalorisant dans les résultats des moteurs de recherche.
Les garanties seront limitées aux éléments dont Appalaches Web a un contrôle significatif et raisonnable.
Appalaches Web ne participera pas à un conflit d’intérêt sans préavis à toutes les parties concernées.
Appalaches Web ne favorisera pas un client au dépend d’un autre. Tous les clients sont traités également et tous sont en droit de recevoir également le meilleur effort dans l’optimisation de leur site pour le référencement et autres interventions SEO.
Appalaches Web ne fera pas miroiter à ses clients des espérances peu raisonnables.
Appalaches Web ne fera pas croire que des résultats peuvent être obtenus en une quantité de temps et une somme d’interventions peu raisonnable, en connaissance des actions nécessaires et la concurrence existante à laquelle le site du client aura à faire face.
Appalaches Web protègera la confidentialité et l’anonymat de l’information privilégiée de ses clients.
Tout le personnel de chez Appalaches Web est lié pour protéger l’information confidentielle du client.
Développement de l’éthique sur Internet
Avec l’affluence extrême vers Internet et le développement de la toile mondiale, tous les intervenants du Web sont d’accord sur la nécessité de créer une règlementation sur Internet.
Le développement technologique sur Internet établit d’emblée des règles de fonctionnement qui sont incontournables. Il n’en va pas de même pour les règles qui régissent le comportement sur la totalité du Web. Avec l’arrivé de certains problèmes au cours du développement d’Internet, une grande part des intervenants ont accepté des règles qui se sont imposées d’elles-mêmes.
On a vu naître des règles tacites sur la pornographie, sur le piratage de données et de logiciels, sur la confidentialité et le respect de la tranquillité des gens par la lutte contre la publicité abusive non désirée (spam). La » Netiquette » était née.
Abus pour le positionnement à tout prix
L’achalandage phénoménal et la lutte pour le positionnement sur les moteurs de recherche ont fait naître une autre problématique. Pour s’approprier une place de choix, certains ont eu recours à tous les moyens possibles pour déjouer la vigilance des moteurs de recherche pour acquérir un positionnement qu’ils ne méritaient pas.
Pour sauvegarder la valeur des informations que Google offre à ses visiteurs et par le fait même, de sauvegarder l’intégrité des services offerts par Internet, l’équipe anti-spam du moteur de recherches travaille très fort pour contrer ces abus.
La longue lutte des moteurs de recherche contre les abus
Dès les débuts des recherches sur le Web, les concepteurs cachaient des mots clés pertinents ou non dans leurs pages Web. Ils les soustrayaient à la vue des internautes en affichant ces textes de la même couleur que le fond de la page. Les visiteurs n’y voyaient rien mais les moteurs de recherche classaient le site en tenant compte de ceux-ci. En principe, cette façon de faire ne fonctionne plus.
Il n’est plus possible non plus de déjouer les moteurs de recherche en inscrivant de longues répétitions d’un même mot clé dans les balises Meta du code source des pages Web.
D’autres contournaient la vigilance des moteurs de recherche en créant des pages d’entrées spécifiques (Doorway Page) pour chaque moteur. Ces pages illicites étaient farcies de mots clés (Keywords Stuffing) au point d’être illisibles pour le visiteur. Ces pages d’entrée n’étaient jamais vues par l’internaute. Elles comportaient une redirection vers une page plus attrayante pour le visiteur. Seuls les moteurs ne voyaient que ces pages truquées et classaient les sites en fonction de leur contenus.
Plusieurs moteurs ont consacré beaucoup d’énergie à contrer cette forme de tricherie. Maintenant, une majorité de moteurs ont banni toute forme de redirection, qu’elle soit nécessaire ou frauduleuse. Celle qui est jugée le plus sévèrement est la page redirigée à partir du serveur d’hébergement, le « cloaking ». Dans cette circonstance, il est impossible d’invoquer l’innocence; il y a vraiment malveillance.
Bien que Google poursuit une lutte très sévère, il y aura toujours quelqu’un pour essayer de déjouer le système et Google reste alerte pour contrer ces nouvelles tentatives.
L’éthique établie par les moteurs
Chaque moteur a établit pendant plusieurs années ses normes dictées par son habilité à détecter les tentatives de tricherie. Par ce fait, ce sont eux qui dictaient les règles de référencement sur Internet. Ces règles ne faisaient pas un consensus et il n’y avait pas une volonté commune en ce sens. Les professionnels du référencement devaient se tenir au courant constamment des nouvelles règles dictées par l’ensemble des moteurs de recherche.
Avec ses Google Guidelines Google s’est imposé comme la référence en éthique de référencement.