Référentiel de bonnes pratiques en référencement naturel

Après les « Bonnes pratiques du web », Opquast a lancé cette année un atelier pour constituer les « Bonnes pratiques SEO ».

Le résultat de cet atelier participatif et communautaire a donné une liste de 80 critères.
Tout comme les Bonnes Pratiques du web, c’est classé sur 3 niveaux et par catégorie.

– Tout comme pour les Bonnes Pratiques du web, c’était un plaisir d’accéder à un tel projet en ligne, en échangeant avec tous, en argumentant, en apprenant –

La liste est d’ores-et-déjà disponible et utilisable dans Opquast Reporting.

De l’importance des descriptions

descriptionLa description de chacune des pages d’un site est un excercice qu’il ne faut pas négliger et qui peut demander du temps.

La description <meta>

La description contenue dans la balise de méta-données n’est pas prise en compte dans l’analyse de la page par les moteur de recherche. Néanmoins, elle est reprise par les moteurs, et notamment par Google, dans les résultats de recherche.
Elle joue donc un rôle important sur le taux de clics depuis une recherche.

Elle doit permettre à un internaute (un humain ; la description de la balise <meta> ne s’adresse pas à un moteur) d’être convaincu que l’information qu’il cherche est sur notre site.
Elle doit être rédigée de sorte à être compréhensible (et non une suite de mots), elle n’a pas besoin de reprendre les mots-clé déjà présents dans le titre.

La description dans les annuaires

La rédaction de description intervient également lorsque l’on inscrit son site dans des annuaires.

L’article ci-dessous revient de façon intelligente sur la méthodologie d’inscription dans les annuaires. Il s’agit surtout de démontrer pourquoi il ne s’agit pas de quantité (backlinks à volonté) mais bien encore de qualité (annuaire de qualité, renseignements soignés et différenciés)

Il est donc important de penser à rédiger différentes versions de description du site (et bien sûr, que cette description soit différente de celle de la balise <meta>)

La description d’un site, d’une page d’un site est donc un exercice de rédaction à part entière. Elle a un impact à la fois sur le référencement naturel et sur la motivation de l’internaute à visiter un site.

La description inutile

C’est du moins le point de vue défendu par Sébastien Billard dans son billet « SEO : ces optimisations qui ne servent à rien (ou presque) » évoqué dans la « Petite veille référencement naturel – mai 2010« 

Petite veille référencement naturel – mai 2010

Duplication de contenu

La duplication de contenu ne serait pas pénalisée.

L’utilisation d’un contenu déjà existant sur une autre page web ne poserait pas de problème à Google.

Par contre, parmi les pages à contenu identique, les SERPS vont servir à l’internaute la page qui paraît à Google la plus pertinente (donc, pas forcément la page la plus ancienne).

Le conseil d’arobase.net : modifier la phrase d’intro et de conclusion ainsi que le titre.
(Et citer la source, bien sûr !)

« Community Manager »

Le moins que l’on puisse dire, c’est que le terme est à la mode en ce moment et qu’on ne manque pas de lecture sur le sujet :

Le CM serait tellement un mouton à 5 pattes qu’il regrouperait plusieurs profils.

Le CM doit être recruter en interne (car parmi toutes les compétences requises au CM, il a déjà la connaissance de l’entreprise à son actif).

Un autre conseil issu de cet article mais que l’on retrouve souvent : ne pas faire travailler sur le sujet un prestataire externe !

« Les optimisations inutiles »

– Où Sébastien Billard déconseille de remplir la balise « description » (1)

– Où il « rend » l’attribut « title » à sa première et unique fonction (et à l’accessibilité !)

– Où il démontre (?) l’inutilité du sitemap

– etc.

(1) et Bing ne s’en sert plus pour le classement des résultats

Vidéos

Cet article revient sur l’importance de se placer aussi sur les vidéos.
Par contre, l’utilisation d’une plate-forme (YouTube, DailyMotion), si cela permet de donner de la visibilité à la marque, cela n’apporte pas de trafic.

La solution est alors d’optimiser les vidéos sur le site :

  • sitemap
  • optimisation du titre (page et vidéo)
  • optimisation des tags

Moteurs de recherche

Notes : « Moteur de recherche » à prendre au sens large : pas uniquement Google et Cie mais aussi les moteurs internes à un site.

Les internautes et les moteurs de recherche

Une étude a été faite par Yahoo! auprès des utilisateurs de Yahoo! (échantillon représentatif d’internautes de 15 ans et plus, début février 2010).
Elle porte sur le comportement des internautes vis-à-vis de leurs recherches mais également vis-à-vis des marques qu’ils recherchent.

« Selon les utilisateurs, les moteurs servent à rechercher des informations pratiques (94%), à trouver des sites de marques (93%), à accéder à des sites déjà connus (92%), à rechercher des contenus multimédias (91%). Viennent ensuite la préparation d’achats (87%), la recherche d’informations sur des films et jeux (86%), la préparation de voyages et évènements (85%), la recherche de documents spécifiques dans un cadre professionnel ou universitaire (82%), la recherche d’information sur des personnes (81%) » (Yahoo Search Academy : des statistiques sur l’usage des moteurs de recherche)

Google et les pages similaires

Pas encore arrivée jusqu’en France, une nouvelle fonctionnalités des SERPs de Google permet d’afficher les pages jugées similaires (un même sujet, un même produit).

Cela signifie-t-il l’affichage de la liste de nos concurrents juste en dessous de « nos » résultats de recherche ?!

La personnalisation des résultats de Google

Google annonce que la personnalisation des résultats de recherche va être étendue à l’ensemble des internautes via un cookie. Elle se basera sur les 180 derniers jours (6 mois) de recherche.

L’analyse de Sébastien Billard fait apparaître que le bilan de positionnement sera certes toujours utile pour se faire une idée  mais moins parlant que la mesure de trafic et des conversions.

L’un des commentaires, celui de MagicYoyo, relativise beaucoup cette personnalisation et notamment en mettant en avant le fait que seuls quelques sites très visités seront concernés.

Voir :

La balise d’indexation <title>

  • Balise très importante pour le référencement
  • Apparaît dans les résultats des moteurs de recherche
  • Titre différent sur chaque page et adapté au contenu : pour varier les mots-clé, pour que toutes les pages ne paraissent pas identiques dans un résultat de recherche.
  • Les mots-clé les plus importants au début
  • 60 carctères / une 10aine de mots environ

robots.txt / balise « robots »

Le fichier robots.txt

Le robots.txt permet est destiné aux moteurs.
Il permet d’autoriser ou non un moteur nommé (utile pour interdire les collecteurs de mails mais sachant que tous les robots ne respectent pas le robots.txt !).
Il permet également de spécifié des pages à ne pas suivre (Les pages qui n’ont aucun intérêt pour le référencement ; les dossiers de scripts, de formulaire, par exemple). Il permet ainsi une économie en ressources.

  • Attention à la syntaxe et à la casse : c’est : robots.txt
  • Les robots sont le plus souvent sensible à la casse
  • Si les robots.txt sont destinés aux moteurs, ils sont lisibles par tous : ne pas y lister les répertoires cachés (il suffit de ne pas faire de liens dessus !)
  • Le robots.txt est unique et doit être à la racine du site
  • Ne pas sauter de ligne dans le fichier robots.txt
  • En cas d’absence de robots.txt (= si on veut que le moteur suive tous les liens, indexe tout), le moteur le cherche (ce qui entraîne, dans les logs, une erreur 404). Ne le trouvant pas, il ne perd pas son temps à l’analyser. On peut toutefois le mettre quand même si on veut « faire propre ».

Exemple :

# Commentaire
User-agent: *
# A quel moteur s'applique la règle. * = tous les moteurs
Disallow: /scripts/
# Interdit la visite à tout le contenu du répertoire scripts
Disallow: /membres/inscription.php
# Interdit la visite à la page inscription.php
# un groupe User-agent par moteur

La balise meta robots

  • Elle n’est pas suivie par tous les robots ; privilégier le robots.txt
  • On doit la mettre sur toutes les pages du site !
  • Syntaxe :
    page indexée, liens suivis :

    • <metaname="robots" content="index, follow">
    • <meta name="robots" content="all">

    page indexée, liens non suivis :

    • <metaname="robots" content="index, nofollow">

    page non indexée, liens suivis :

    • <metaname="robots" content="noindex, follow">

    page non indexée, liens non suivis :

    • <metaname="robots" content="noindex, nofollow">
    • <meta name="robots" content="none">

La balise d’indexation « keywords »

  • Une importance très faible
  • Y mettre les mots absents du contenu et pourtant ayant un rapport, une pertinence avec le contenu (synonymes, anglicismes, …).
  • Mettre les mots dans l’ordre d’importance, les plus importants au début.
  • Utiliser les groupe de mots : « création de sites Internet » plutôt que « création, sites, Internet ».
  • Ne mettre les pluriels que s’ils différents de plus d’une lettre du singulier (ex. : cheval / chevaux).
  • Séparateur : espace ou virgule ou espace + virgule
  • Risque d’être considéré comme spammeur au-delà de 100 mots ou 1000 caractères (un caractère accentué vaut pour un) ;
  • Une 20aine de mots suffit.
  • L’utilisation de marques, de nom de concurrent est illégale.
  • A placer sous la meta « description ».
<meta name="keywords" content="" />

Evaluer la qualité du référencement naturel d’un site web

Plan de l’article :

  • Les principes de base
  • Les mots-clé
  • Les liens
  • Le code
  • La concurrence
  • Conclusion

Les principes de base

La première chose à prendre en compte est le contenu. En effet, évaluer la qualité du référencement naturel d’un site n’ayant pas un contenu susceptible d’intéresser les internautes serait une perte de temps. Il faut également veiller à ce que chacune des pages du site soit autonome et soit analysée en elle-même. C’est d’abord un très bon moyen pour optimiser le référencement d’un site en entier, mais en plus, on ne sait jamais, avec les moteurs de recherche et les liens externes, par quelle page un internaute arrive sur le site.

Enfin, il ne faut pas oublier que l’intérêt des internautes est un facteur important du référencement naturel : ce sont eux qui vous feront des liens, ce sont eux qui parleront de vous sur un forum, ce sont eux qui conseillerons votre site aux amis …Ce sont eux qui font vivre votre site.

Les mots-clé

Il y a deux listes de mots-clé à avoir en tête :

  • les mots pertinents par rapport au sujet de la page ;
  • les mots pertinents par rapport aux recherches des internautes.

Pour la première liste, notez tous les mots appartenant au champ lexical du sujet de la page (y compris synonymes, anglicismes…)
Normalement, les mots les plus importants devraient déjà être présent dans le contenu de la page. S’il est bon qu’un ou deux mots essentiels soient répétés, il ne faut surtout pas hésiter à exploiter tous le champ lexical.
C’est plus agréable pour l’internaute et cela enrichie la page aux yeux des moteurs de recherche.

Pour la seconde liste, il faut trouver quelles sont les requêtes régulièrement recherchées par les internautes.
En effet, si le mot le plus important de votre page n’est pas ou peu recherché, il faudra peut-être lui préférer un synonyme. Il ne faut pas oublier non plus que les internautes font parfois des fautes d’orthographe, peuvent omettre les accents, utilisent plutôt un mot dans une expression mais son synonyme dans une autre…

Outil pour tester la pertinence d’une recherche :

Analysez dans votre page la présence de ces mots, voyez quels sont les mots manquants, les mots en trop.

La balise meta « keywords » :

Elle perd de son importance. Beaucoup d’abus ont été fait qui ont entraîné les moteurs à ne plus (ou presque plus) la prendre en compte. Vous pouvez quand même y insérer les mots que vous n’employez pas dans la page : fautes d’orthographe courantes, anglicismes, abréviations, pluriels (s’il y a plusieurs lettres de différences avec le singulier).

La densité :

Beaucoup de choses sont dites sur la densité et beaucoup de chiffres sont avancés. Mais aucun pourcentage n’est officiel et on ne peut avancer que des estimations.

Pour approfondir :

Outil pour analyser la densité des mots-clé d’une page :

Les liens

Ne pas oublier que la tactique de liens d’un site n’a pas pour but uniquement de séduire les moteurs mais bien de s’intégrer au sein d’une communauté, d’augmenter sa visibilité, d’apporter, encore et toujours, une richesse de contenu.

Trois types de liens sont à analyser et ont leur importance : les liens internes, les liens sortants et les liens entrants.

Analysez la qualité des liens internes.
Il faut, bien-sûr, que chacune des pages du site ait au moins un lien qui pointe vers elle. Mais un lien ne suffit pas et un réseau de liens internes est bien utile.
C’est -aussi- à ça que servent le footer, le plan du site (v. Concevoir un plan de site), le menu sur toutes les pages (en dehors d’autres considérations ergonomiques bien importantes).

Des liens reliant plusieurs rubriques connexes, intégrés dans le texte, sont aussi les bienvenus.

Dans tous les cas, deux critères sont importants : le libellé puis le « title ».
Le libellé du lien doit pouvoir être lu seul (pour les lecteurs vocaux, pour les internautes qui lisent « en diagonale », pour être plus pertinents). Il est bon qu’ils contiennent des mots-clés de la page vers laquelle ils pointent.
Le title, selon les règles d’accessiblité, doit contenir autant d’informations que le libellé plus des informations complémentaires. Cela peut, dans certains cas, être l’occasion de donner des précisions sur cette page de destination et d’enrichir ainsi la couverture du champ lexical.

Si les liens sortants sont importants, c’est parce qu’ils jouent un rôle dans votre crédibilité. Ils sont un indice du sérieux de votre contenu en fonction du sérieux des sites que vous recommandez.
Les webmasters des pages citées pourraient aussi être tenté de faire un lien vers un site s’ils voient que les deux sites ont une thématique commune, un enrichissement l’un par rapport à l’autre.

Les liens entrants sont une catégorie très importante à ne pas négliger.
Listez, dans un premier temps, les liens pointant sur votre site.
Pour cela, utilisez les commandes suivantes :

  • « link: » + URL sur Google (attention, Google ne remontent pas tous les liens)
  • « linkdomain: » + URL sur Yahoo!
  • « link: » + URL sur MSN Search

Vous pouvez aussi exploiter les fonctionnalités de logiciels tels que Backlink Analyszer.

Visitez chacun des sites que vous avez trouvé et notez pour chacun d’eux la qualité du lien.

Elle dépend :

  • des critères vus ci-dessus : libellé et « title »
  • de la page du site vers laquelle le lien pointe : la page d’accueil ou une page en profondeur
  • de la qualité de la page qui vous fait le lien : sérieux du contenu, popularité de la page, sujet connexe
  • du nombre de liens présents dans la page : si la page fait 50 liens ou si elle en fait 2, ça n’a pas le même impact

Après avoir listé les liens pointant vers le site analysé, il reste encore à trouver les liens qui n’existent pas mais qu’il serait intéressant d’avoir.
Pour cela, il faut se constituer une liste des sites aux sujets connexes ou ceux auquel une des pages du site peut apporter quelque chose (outil, références, approfondissement)

Ces sites peuvent aussi être des annuaires, et, encore mieux, des annuaires spécialisés.

Outils pour trouver des annuaires spécialisés :

Deux très bons annuaires d’annuaires avec recherche multicritères

Cette liste de sites intéressant pourra être, par la suite, une base de travail pour optimiser le référencement naturel du site. Elle vous permet aussi de voir les écueils du référencement actuel.

Pour approfondir :

Le code

Le code est un élément essentiel puisqu’il est lu et décrypté par les robots d’indexation afin de fournir aux moteurs les informations nécessaires pour le référencement d’une page. Un site dont le code est « propre » augmente considérablement ses chances d’être compris et bien intégré par un moteur de recherche. Il faut donc s’assurer que le code des pages est valide et qu’il respecte bien la sémantique des balises HTML.

Pour se faire une idée de comment les moteurs de recherche voient le code (et donc sur quoi ils se basent pour évaluer une page), on peut consulter la version texte du cache de Google. Pour cela, faire une recherche. Pour un résultat, au bout de la ligne d’adresse (verte), cliquer sur « Cached ». Dans le petit paragraphe en haut de la page, cliquer sur « cached text ». On voit alors ce que « voit » le moteur.

Outils pour vérifier la validité d’un code :

Pour vérifier l’utilisation des balises HTML, il n’y a pas d’autre solution que d’avoir un bon intégrateur ou de consulter la spécification (HTML 4.01 ; XHTML).

Si la balise meta « keywords » devient désuète, la balise meta « description » garde, elle son importance. Pas beaucoup au niveau de l’évaluation des pages par le moteur, mais plutôt pour la lecture que les internautes peuvent en faire au moment de leur recherche. En effet, c’est souvent cette description qui est affichée dans la liste des résultats de recherche. C’est donc elle qui incitera -ou non- un internaute à poursuivre sa recherche sur un site. Elle participe donc à la visibilité.

Les derniers éléments à vérifier dans le code sont tous les contenus auxquels les moteurs de recheche n’ont pas accès : images, vidéos, javascript… Pour tous les contenus visuels, il suffit de vérifier la présence d’un contenu alternatif (attribut « alt » ou « longdesc »). Pour le javascript (et même si les moteurs arrivent de plus en plus souvent à y avoir accès), il faut s’assurer qu’il existe bien une version pour le cas où le javascript est désactivé. Les robots d’indexation auront ainsi bien accès à tout le contenu.

Enfin, ne pas prendre en compte pour l’analyse toutes les pages qui resteront définitivement fermées aux robots :

  • celles qui sont protégées par un mot de passe
  • celles pour lesquelles il est demandé aux moteurs de ne pas les référencer – Vérifier pour cela la présence d’un robots.txt à la racine du site. L’inscription « no-index » indique que la page ne sera pas indéxée par les moteurs de recherche respectueux du robots.txt

La concurrence

Le dernier point à appliquer pour analyser la qualité du référencement naturel d’un site c’est … d’analyser la qualité du référencement naturel de ses concurrents !

Il faut tout abord les identifier. Pour cela, rien de tel qu’une recherche sur les principaux moteurs en utilisant les requêtes principales sur lesquelles le site audité souhaite se référencer. Il ne reste plus qu’à reprendre chacun des points ci-dessus et de les appliquer aux sites concurrents !

Cette analyse permettra aussi de situer le site audité par rapport à un contexte réel et, soit de conserver une avance sur les autres, soit de rattraper un retard et, pourquoi pas, dépasser tout le monde.

Ne pas oublier qu’ils peuvent eux-mêmes être une source de renseignements, d’inspiration : trouver sur quels mots-clé ils resortent, pourquoi, leur densité et leur emplacement…

Outils pour analyser les sites concurrents&nbps;:

Evaluation de la visibilité d’un site :

Conclusion

La qualité du référencement naturel se compose donc de nombreux éléments, ayant chacun leur importance. Si son évaluation prend du temps, elle peut être un très bon indicateur des points forts et des points faibles d’un site. Elle permet donc de savoir quels sont les points à améliorer et dans quelle direction. Faites à intervales réguliers, une évaluation de la qualité du référencement naturel permet aussi de voir les progrès, quelles les modifications qui ont eu un impact positif, neutre ou négatif…
Bref, elle permet d’affiner la connaissance de son propre site, de la façon dont les moteurs peuvent réagir par rapport à lui … Elle permet d’affiner ses propres connaissances en référencement naturel.

Il ne me reste plus qu’à remercier Seg pour ses conseils avisés.

Concevoir un plan de site

L’utilité du plan de site.

Le plan du site comme aide à la navigation

La toute première fonction d’un plan du site est d’aider le visiteur dans sa navigation.
Cela peut, par exemple, être un visiteur qui recherche un type d’information précis et n’arrive pas à le trouver dans le menu, ni dans les pages. Si le site n’a pas de module de recherche, ou si l’internaute ne souhaite pas y faire appel, il peut alors utiliser le plan du site.

Mais l’internaute peut tout aussi bien avoir consulter le plan du site sans avoir fait une seule recherche dans les rubriques du menu ou en navigant. Il se peut très bien que le plan soit le premier lien auquel il ait recours. Soit qu’il recherche une information pointue et estime qu’il la trouvera plus facilement en ayant accès aux sous-rubriques et autres niveaux directement. Soit, tout simplement, pour se donner une idée de la prestation d’un site et des domaines couverts.

Des mot-clés et des liens pertinents

Le plan du site, par sa fonction même, va reprendre les mots importants du site : le titre des pages.

Mais la plus grande force encore du plan du site vient du fait que c’est un véritable réseau de liens sur le site.
D’abord, en listant la totalité des pages du site (ou des pages principales), on s’assure que le robot des moteurs de recherche trouvera chacune d’entre-elles. C’est donc une page que le spider doit facilement trouver.

Comment faire ?

Emplacement

On a vu que le réseau de lien que représente le plan du site est un avantage pour le référencement. Cet avantage est réellement efficace si de nombreuses pages pointent vers le plan du site. Mais de toute façon, d’un point de vue ergonomique, la présence d’un lien vers le plan du site sur chaque page est indispensable. En effet, on ne peut savoir d’avance à quel moment un visiteur va en avoir besoin. Et comme c’est un outil d’aide à la navigation… il doit facilement être trouvable !

Par habitude, on s’attend à trouver un lien vers le plan du site au moins en bas de page.

Présentation

Un plan de site peut-avoir un aspect très différent selon que le site est composé de quelques pages ou de plusieurs centaines ! Il n’y a pas une façon de faire un plan mais il faut savoir s’adapter à la situation.

Dans le cas d’un site à beaucoup de pages, vous n’allez pas lister dans votre plan la totalité (ou en utilisant une solution faisant apparaître des sections, par exemple). Vous pouvez très bien, également, faire un plan sur plusieurs pages. Gardez d’ailleurs à l’esprit que Google déconseille d’avoir plus de 100 liens dans une page et que les règles d’accessibilité préconisent 40 liens maximum.

Au contraire, pour le plan d’un site ayant peu de pages, vous pouvez vous permettre un plus grand niveau de détails. Vous pouvez même aller jusqu’à une description succincte de la page derrière chaque lien, pour mieux aiguiller l’internaute (et glisser quelques mot-clés !)

Pour que votre plan soit vraiment utile à l’internaute, pensez à bien l’organiser. Hiérarchisez les rubriques, les pages.
Les marges, les couleurs peuvent vous aider à créer des zones. N’oubliez pas que si votre plan est agréable à consulter, cela pourrait insciter l’internaute à le regarder dans le détail et, peut-être, à voir des pages qu’il n’aurait pas pensé à chercher autrement.

Code

Un plan, ce n’est rien d’autre que la liste des pages du site. Il faut donc utiliser les balises <ul> <li> (dans certains cas <ol> <li>). Vous aurez certainement à imbriquer ces listes.

La syntaxe est la suivante :

<ul>
        <li>Rubrique 1
                <ul>
                        <li>Sous-rubrique 1</li>
                        <li>Sous-rubrique 2</li>
                </ul>
        </li>
        <li>Rubrique 2</li>
</ul>

Pour que votre référencement soit vraiment optimisé, n’oubliez pas d’utiliser l’attribut title sur vos liens.

La page 404

Votre site devrait contenir une page 404 personnalisée. Si un internaute arrive dessus, c’est soit qu’il y a une erreur dans l’URL qu’il a tapée.

Soit il identifie et corrige son erreur immédiatement, soit la page n’existe plus ou tout autre situation. Il faut alors aider votre visiteur et quoi de mieux que le plan du site ?!

Il est donc utile de prévoir, si on le peut, le plan du site dans un include qui serait appelé depuis la page plan du site et depuis la page 404.

Des exemples

Un exemple sur www.service-public.fr www.service-public.fr/aide/plan.htmlPour ce site aux nombreuses pages, en plus des rubriques déjà présentes, le plan a été découpé en trois espaces thématiques.
Un exemple sur http://pourpre.com http://pourpre.com/pied/plan.phpPour ce site très riche autour d’un thème unique, la courte description a côté des rubriques et des sous-rubrique apporte une aide en plus.