Guide pratique pour un bon référencement naturel pas à pas

Comment créer un bon référencement avec quelques règles et principes simples en SEO

Le fonctionnement d'un robot.

Pour indexer un site, les moteurs de recherche envoient un robot (ou crawler) qui :

  • Accède au site par son nom de domaine racine
  • Suit les liens
  • Analyse le contenu des pages

Le moteur calcule ensuite la popularité du site.

Optimiser l'architecture de son site pour les moteurs de recherche

Les principaux éléments d’architecture auxquels les moteurs de recherche sont sensibles :

  • La structure technique du site
  • Le format des pages
  • Le linking interne
  • La configuration du serveur

La structure technique du site

SYNTAXE DES URLS :

Les pages dynamiques sont indexables sous plusieurs conditions :

  • Limiter le nombre de caractères
  • Eviter (ou limiter) les caractères exotiques : &, ?, #, ;, ...
  • Bien avoir une URL spécifique par page

Avoir des URLs stables dans le temps

  • Notamment ne pas faire remonter de variables de session
  • Exemple : www.monsite.com/page.php?sessionID=1318603543160134

Il faut donc privilégier :

  • Les pages statiques
  • Les modules de réécriture d’URLs pour les sites dynamiques

LA REDIRECTION :

Les redirections sont mal gérées par les robots de moteur de recherche :

De www.monsite.com vers www.monsite.com/home.asp

Il y a deux types de redirection :

  • Par page (Meta refresh=0 ou javascript)
  • Serveur

Quelque soit la méthode employée, il est préférable d’éviter les redirections.

Sous-domaines / repertoires :

Les répertoires et sous domaines sont gérés différemment par les moteurs :

  • Répertoire : http://www.monsite.com/repertoire/
  • Sous-domaine : http://sousdomaine.monsite.com

Les répertoires sont considérés comme une section du site.

Les sous-domaines sont considérés comme des sites à part entière :

  • Calcul d’une popularité propre
  • Indexation différenciée

A moins d’avoir un contenu très spécifique qui mérite une forte différenciation, il est préférable de passer par une organisation en répertoires.

Cookies et detection :

Derniers éléments de structure à prendre en compte :

  • La politique d’acceptation de cookies
  • Les systèmes de détection de la configuration (résolution, browser, langue, IP, ...)

Certains sites conditionnent l’accès au site par l’acceptation d’un cookie. Ne pas rendre l’acceptation des cookies obligatoire.

Les systèmes de détection de configuration sont également à proscrire :

  • Soit parce qu’ils font appel à des javascript
  • Soit parce qu’ils détectent l’IP et que les robots sont pour la plupart US

Le format des pages

Frameset, formulaires, listes :

Pages en frameset et/ou iframe :

  • Indexation individuelle de chaque page du frameset
  • Diffusion réduite de la popularité interne
  • Il est préférable d’éviter l’utilisation des framesets (ou iframe) pour privilégier les pages pleines
  • Les robots ne sont pas capables de remplir un formulaire.
  • Les pages après formulaires (notamment identification) ne seront donc pas indexées.
  • Les moteurs ne font pas de choix dans une liste déroulante.
  • Certains peuvent lire le contenu des listes mais ils n’accèdent pas aux pages cibles.

Le javascript :

Un javascript se traduit, dans la majorité des cas, chez un moteur de recherche par :

  • Des lignes de code sans signification
  • D’où l’intérêt d’exclure les javascript dans un fichier .js

En conséquence, il faut absolument éviter :

  • Les menus en javascript
  • Les liens en javascript
  • L’intégration de contenu dans un javascript

Le contenu :

Les pages doivent toutes intégrer un contenu texte contenant vos mots clés :

  • Sélectionner des mots clés précis pour chaque page
  • Les mots clés doivent être intégrés dans des paragraphes construits
  • Pas de texte caché
  • Chaque page doit intégrer des balises titre et Meta personnalisées selon le contenu
  • Chaque contenu doit être unique : pas de répétition de contenu entre plusieurs pages
  • CSS, externalisé dans un .css, mais pour que l’outil identifie les mises en avant de mots clés (gras, H1, ...), ces balises doivent être dans le code HTML directement

Dans le cas de sites multi-langues :

  • Prévoir un contenu spécifique par langue (pas de mélange)
  • Chaque version linguistique (et chaque page) doit avoir sa propre adresse

Les images :

Une image se traduit chez un moteur de recherche par une absence de texte visible. En conséquence, il faut absolument éviter :

  • Les sites composées exclusivement d’images
  • L’intégration de contenu dans une image

Les images ne doivent pas remplacer le texte et doivent uniquement servir à illustration du contenu.

Il est pertinent de renseigner les balises ALT … mais elles ne compenseront jamais une absence de contenu textuel.

Le Flash :

Une animation Flash se traduit chez un moteur de recherche par :

  • Une absence de texte visible
  • Une absence de liens

En conséquence, il faut absolument éviter :

  • Les sites 100% flash
  • Les menus en flash
  • L’intégration de contenu dans une animation Flash

Le Flash doit être utilisé comme une image : pour simple illustration d’un contenu texte.

La verification du code :

Outiref, pour analyser : https://www.outiref.fr/

  • les balises title et Meta
  • la présence de texte
  • la présence de flash, alt, commentaires
  • la densité des mots clés

Spider Simulator : http://tools.seochat.com/tools/search-spider-simulator/

  • voir les liens suivis
  • les images présentes
  • les infos serveur

Le linking interne :

Format des liens :

La qualité du linking interne est stratégique pour plusieurs raisons :

  • Il permet l’indexation de la totalité des pages (ou du moins d’une majorité)
  • Il sert à la redistribution de la popularité interne
  • Il sert à la pré-qualification des pages

En conséquence, il faut :

  • Privilégier les liens au format HREF (texte)
  • Idéalement, ces liens doivent être placés sur du texte avec en intitulé de lien, un mot clé représentatif de la page cible.

La configuration du serveur :

Gestion des erreurs 404 :

  • Pour les pages remplacées : mettre en place une redirection permanente (301) de l’ancienne page vers la nouvelle
  • Pour les pages supprimées : mettre une page d’erreur 404 personnalisée

Fichier Robots.txt :

  • Sert à bloquer l’indexation de certaines parties du site
  • Utilisation de la balise : meta name="robots"

Espace securise HTTPS :

  • Les pages en https sont mal indexées et sont prises en compte par peu d’outils (Google et Yahoo principalement)
  • Réserver l’utilisation du SSL aux seules pages qui en ont fondamentalement besoin

Conclusion :

Un bon référencement naturel c’est :

  • Une bonne architecture de site ! …mais aussi un bon contenu (choix des mots clés)
  • Un respect total des règles fixées par les outils : JAMAIS de Spam !
  • Ne pas seulement travailler pour les moteurs, le site doit avant tout être pensé pour le visiteur en terme d’efficacité et d’ergonomie.