
Le référencement dans les années 2000 c'était comment?
Rédigé par David le 08/10/2015
Lorsque j’ai commencé à travailler dans le domaine du web et du référencement en 2007, Google était déjà incontournable mais son algorithme était bien moins perfectionné. A l’époque Penguin, Panda et Pigeon n’excitait pas et les référenceurs utilisaient parfois des pratiques qui aujourd’hui sont pénalisés dans la seconde. Le PageRank était l’un des critères les plus importants pour garantir un bon positionnement et le contenu n’était pas encore roi. Bref, on ne travaillait pas du tout dans l'environnement, ni les mêmes contraintes et la même concurrence qu’aujourd’hui.
Du coup, j’ai envie de revenir en 2007 et vous parlez de cette période où j’ai vu ou fait des choses assez étonnantes voir totalement folles qu’on ne ferait plus aujourd’hui :
- Le ‘cloaking keyword stuffing’ ou le bourrage de mots clés : Les sites internet a l’époque faisait souvent quelques pages (10 tout au plus). Du coup pour se positionner sur des dizaines ou des centaines de mots clés différentes, on rajoutait des tonnes de mots clés dans les pieds de page. Et puis comme c’était pas très joli à voir, on changeait la couleur du texte comme celle du fond ou on utilisait le CSS pour faire disparaitre ses mots clés de l’écran.
- On utilisait dans balises “NOSCRIPT”. Normalement, une balise “NOSCRIPT” ca sert à insérer du code si l'un des scripts de la page n'est pas pris en charge ou encore si les scripts ont été désactivés par défaut dans le navigateur. Mais on utilisait les balises “NOSCRIPT“ pour faire du bourrage de mots clés. Et oui ! Et le pire, c’est que Google adorait ça, jusqu’au jour où ….
- A l’époque le Flash était ROI alors on faisait des sites internet en Full Flash (c’était trop beau) et pour faire du référencement naturel, on cachait des pages HTML remplis de contenus pour apporter du trafic.
- On faisait de la soumission à la chaîne dans les annuaires de tous types pour faire grimper le PageRank sans sélectionner les annuaires pertinents.
- Lorsqu’un site internet utilisait Google Analytics, c’était incroyable sauf lorsqu’il fallait expliquer la différence de fréquentation entre Google Analytics et Webalizer par exemple où on observait des écarts de folie.
- Le mobile n’existait pas et les recherches locales étaient en train de commencer à se développer.
- On utilisait encore la page “Keywords” mais si Google commençait à dire qu’elle n’était plus utile mais on la remplissait au cas où.
- Les structures de sites étaient beaucoup moins importantes.
- Les urls des pages de sites internet n’étaient pas réécrites. On avait des tonnes de paramètres à la suite qui étaient incompréhensible
- Les sites internet statiques de 5 pages étaient devenu légion
- On mesurait la performance d’un site internet que selon son nombre de visites
Quand je pense à tout cela, je me dis que le métier du web et du référencement naturel a évolué une vitesse folle. Aujourd’hui tout ses pratiques sont totalement à exclue et Google nous sort tous les ans un nouvel algorithme pour améliorer sa pertinence. En 2007, le référencement en agence web, c’était un peu l’anarchie. La rédaction des contenus n’était pas une priorité et les sites internet qui étaient administrable et évolutif en terme de contenu avaient déjà tout compris.
Bref, j’ai commencé le référencement en 2007 mais c’est en 2015 que c’est le plus passionnant.