Petite veille référencement naturel – mai 2010

Duplication de contenu

La duplication de contenu ne serait pas pénalisée.

L’utilisation d’un contenu déjà existant sur une autre page web ne poserait pas de problème à Google.

Par contre, parmi les pages à contenu identique, les SERPS vont servir à l’internaute la page qui paraît à Google la plus pertinente (donc, pas forcément la page la plus ancienne).

Le conseil d’arobase.net : modifier la phrase d’intro et de conclusion ainsi que le titre.
(Et citer la source, bien sûr !)

« Community Manager »

Le moins que l’on puisse dire, c’est que le terme est à la mode en ce moment et qu’on ne manque pas de lecture sur le sujet :

Le CM serait tellement un mouton à 5 pattes qu’il regrouperait plusieurs profils.

Le CM doit être recruter en interne (car parmi toutes les compétences requises au CM, il a déjà la connaissance de l’entreprise à son actif).

Un autre conseil issu de cet article mais que l’on retrouve souvent : ne pas faire travailler sur le sujet un prestataire externe !

« Les optimisations inutiles »

– Où Sébastien Billard déconseille de remplir la balise « description » (1)

– Où il « rend » l’attribut « title » à sa première et unique fonction (et à l’accessibilité !)

– Où il démontre (?) l’inutilité du sitemap

– etc.

(1) et Bing ne s’en sert plus pour le classement des résultats

Vidéos

Cet article revient sur l’importance de se placer aussi sur les vidéos.
Par contre, l’utilisation d’une plate-forme (YouTube, DailyMotion), si cela permet de donner de la visibilité à la marque, cela n’apporte pas de trafic.

La solution est alors d’optimiser les vidéos sur le site :

  • sitemap
  • optimisation du titre (page et vidéo)
  • optimisation des tags

Moteurs de recherche

Notes : « Moteur de recherche » à prendre au sens large : pas uniquement Google et Cie mais aussi les moteurs internes à un site.

Les internautes et les moteurs de recherche

Une étude a été faite par Yahoo! auprès des utilisateurs de Yahoo! (échantillon représentatif d’internautes de 15 ans et plus, début février 2010).
Elle porte sur le comportement des internautes vis-à-vis de leurs recherches mais également vis-à-vis des marques qu’ils recherchent.

« Selon les utilisateurs, les moteurs servent à rechercher des informations pratiques (94%), à trouver des sites de marques (93%), à accéder à des sites déjà connus (92%), à rechercher des contenus multimédias (91%). Viennent ensuite la préparation d’achats (87%), la recherche d’informations sur des films et jeux (86%), la préparation de voyages et évènements (85%), la recherche de documents spécifiques dans un cadre professionnel ou universitaire (82%), la recherche d’information sur des personnes (81%) » (Yahoo Search Academy : des statistiques sur l’usage des moteurs de recherche)

Google et les pages similaires

Pas encore arrivée jusqu’en France, une nouvelle fonctionnalités des SERPs de Google permet d’afficher les pages jugées similaires (un même sujet, un même produit).

Cela signifie-t-il l’affichage de la liste de nos concurrents juste en dessous de « nos » résultats de recherche ?!

Evaluer la qualité du référencement naturel d’un site web

Plan de l’article :

  • Les principes de base
  • Les mots-clé
  • Les liens
  • Le code
  • La concurrence
  • Conclusion

Les principes de base

La première chose à prendre en compte est le contenu. En effet, évaluer la qualité du référencement naturel d’un site n’ayant pas un contenu susceptible d’intéresser les internautes serait une perte de temps. Il faut également veiller à ce que chacune des pages du site soit autonome et soit analysée en elle-même. C’est d’abord un très bon moyen pour optimiser le référencement d’un site en entier, mais en plus, on ne sait jamais, avec les moteurs de recherche et les liens externes, par quelle page un internaute arrive sur le site.

Enfin, il ne faut pas oublier que l’intérêt des internautes est un facteur important du référencement naturel : ce sont eux qui vous feront des liens, ce sont eux qui parleront de vous sur un forum, ce sont eux qui conseillerons votre site aux amis …Ce sont eux qui font vivre votre site.

Les mots-clé

Il y a deux listes de mots-clé à avoir en tête :

  • les mots pertinents par rapport au sujet de la page ;
  • les mots pertinents par rapport aux recherches des internautes.

Pour la première liste, notez tous les mots appartenant au champ lexical du sujet de la page (y compris synonymes, anglicismes…)
Normalement, les mots les plus importants devraient déjà être présent dans le contenu de la page. S’il est bon qu’un ou deux mots essentiels soient répétés, il ne faut surtout pas hésiter à exploiter tous le champ lexical.
C’est plus agréable pour l’internaute et cela enrichie la page aux yeux des moteurs de recherche.

Pour la seconde liste, il faut trouver quelles sont les requêtes régulièrement recherchées par les internautes.
En effet, si le mot le plus important de votre page n’est pas ou peu recherché, il faudra peut-être lui préférer un synonyme. Il ne faut pas oublier non plus que les internautes font parfois des fautes d’orthographe, peuvent omettre les accents, utilisent plutôt un mot dans une expression mais son synonyme dans une autre…

Outil pour tester la pertinence d’une recherche :

Analysez dans votre page la présence de ces mots, voyez quels sont les mots manquants, les mots en trop.

La balise meta « keywords » :

Elle perd de son importance. Beaucoup d’abus ont été fait qui ont entraîné les moteurs à ne plus (ou presque plus) la prendre en compte. Vous pouvez quand même y insérer les mots que vous n’employez pas dans la page : fautes d’orthographe courantes, anglicismes, abréviations, pluriels (s’il y a plusieurs lettres de différences avec le singulier).

La densité :

Beaucoup de choses sont dites sur la densité et beaucoup de chiffres sont avancés. Mais aucun pourcentage n’est officiel et on ne peut avancer que des estimations.

Pour approfondir :

Outil pour analyser la densité des mots-clé d’une page :

Les liens

Ne pas oublier que la tactique de liens d’un site n’a pas pour but uniquement de séduire les moteurs mais bien de s’intégrer au sein d’une communauté, d’augmenter sa visibilité, d’apporter, encore et toujours, une richesse de contenu.

Trois types de liens sont à analyser et ont leur importance : les liens internes, les liens sortants et les liens entrants.

Analysez la qualité des liens internes.
Il faut, bien-sûr, que chacune des pages du site ait au moins un lien qui pointe vers elle. Mais un lien ne suffit pas et un réseau de liens internes est bien utile.
C’est -aussi- à ça que servent le footer, le plan du site (v. Concevoir un plan de site), le menu sur toutes les pages (en dehors d’autres considérations ergonomiques bien importantes).

Des liens reliant plusieurs rubriques connexes, intégrés dans le texte, sont aussi les bienvenus.

Dans tous les cas, deux critères sont importants : le libellé puis le « title ».
Le libellé du lien doit pouvoir être lu seul (pour les lecteurs vocaux, pour les internautes qui lisent « en diagonale », pour être plus pertinents). Il est bon qu’ils contiennent des mots-clés de la page vers laquelle ils pointent.
Le title, selon les règles d’accessiblité, doit contenir autant d’informations que le libellé plus des informations complémentaires. Cela peut, dans certains cas, être l’occasion de donner des précisions sur cette page de destination et d’enrichir ainsi la couverture du champ lexical.

Si les liens sortants sont importants, c’est parce qu’ils jouent un rôle dans votre crédibilité. Ils sont un indice du sérieux de votre contenu en fonction du sérieux des sites que vous recommandez.
Les webmasters des pages citées pourraient aussi être tenté de faire un lien vers un site s’ils voient que les deux sites ont une thématique commune, un enrichissement l’un par rapport à l’autre.

Les liens entrants sont une catégorie très importante à ne pas négliger.
Listez, dans un premier temps, les liens pointant sur votre site.
Pour cela, utilisez les commandes suivantes :

  • « link: » + URL sur Google (attention, Google ne remontent pas tous les liens)
  • « linkdomain: » + URL sur Yahoo!
  • « link: » + URL sur MSN Search

Vous pouvez aussi exploiter les fonctionnalités de logiciels tels que Backlink Analyszer.

Visitez chacun des sites que vous avez trouvé et notez pour chacun d’eux la qualité du lien.

Elle dépend :

  • des critères vus ci-dessus : libellé et « title »
  • de la page du site vers laquelle le lien pointe : la page d’accueil ou une page en profondeur
  • de la qualité de la page qui vous fait le lien : sérieux du contenu, popularité de la page, sujet connexe
  • du nombre de liens présents dans la page : si la page fait 50 liens ou si elle en fait 2, ça n’a pas le même impact

Après avoir listé les liens pointant vers le site analysé, il reste encore à trouver les liens qui n’existent pas mais qu’il serait intéressant d’avoir.
Pour cela, il faut se constituer une liste des sites aux sujets connexes ou ceux auquel une des pages du site peut apporter quelque chose (outil, références, approfondissement)

Ces sites peuvent aussi être des annuaires, et, encore mieux, des annuaires spécialisés.

Outils pour trouver des annuaires spécialisés :

Deux très bons annuaires d’annuaires avec recherche multicritères

Cette liste de sites intéressant pourra être, par la suite, une base de travail pour optimiser le référencement naturel du site. Elle vous permet aussi de voir les écueils du référencement actuel.

Pour approfondir :

Le code

Le code est un élément essentiel puisqu’il est lu et décrypté par les robots d’indexation afin de fournir aux moteurs les informations nécessaires pour le référencement d’une page. Un site dont le code est « propre » augmente considérablement ses chances d’être compris et bien intégré par un moteur de recherche. Il faut donc s’assurer que le code des pages est valide et qu’il respecte bien la sémantique des balises HTML.

Pour se faire une idée de comment les moteurs de recherche voient le code (et donc sur quoi ils se basent pour évaluer une page), on peut consulter la version texte du cache de Google. Pour cela, faire une recherche. Pour un résultat, au bout de la ligne d’adresse (verte), cliquer sur « Cached ». Dans le petit paragraphe en haut de la page, cliquer sur « cached text ». On voit alors ce que « voit » le moteur.

Outils pour vérifier la validité d’un code :

Pour vérifier l’utilisation des balises HTML, il n’y a pas d’autre solution que d’avoir un bon intégrateur ou de consulter la spécification (HTML 4.01 ; XHTML).

Si la balise meta « keywords » devient désuète, la balise meta « description » garde, elle son importance. Pas beaucoup au niveau de l’évaluation des pages par le moteur, mais plutôt pour la lecture que les internautes peuvent en faire au moment de leur recherche. En effet, c’est souvent cette description qui est affichée dans la liste des résultats de recherche. C’est donc elle qui incitera -ou non- un internaute à poursuivre sa recherche sur un site. Elle participe donc à la visibilité.

Les derniers éléments à vérifier dans le code sont tous les contenus auxquels les moteurs de recheche n’ont pas accès : images, vidéos, javascript… Pour tous les contenus visuels, il suffit de vérifier la présence d’un contenu alternatif (attribut « alt » ou « longdesc »). Pour le javascript (et même si les moteurs arrivent de plus en plus souvent à y avoir accès), il faut s’assurer qu’il existe bien une version pour le cas où le javascript est désactivé. Les robots d’indexation auront ainsi bien accès à tout le contenu.

Enfin, ne pas prendre en compte pour l’analyse toutes les pages qui resteront définitivement fermées aux robots :

  • celles qui sont protégées par un mot de passe
  • celles pour lesquelles il est demandé aux moteurs de ne pas les référencer – Vérifier pour cela la présence d’un robots.txt à la racine du site. L’inscription « no-index » indique que la page ne sera pas indéxée par les moteurs de recherche respectueux du robots.txt

La concurrence

Le dernier point à appliquer pour analyser la qualité du référencement naturel d’un site c’est … d’analyser la qualité du référencement naturel de ses concurrents !

Il faut tout abord les identifier. Pour cela, rien de tel qu’une recherche sur les principaux moteurs en utilisant les requêtes principales sur lesquelles le site audité souhaite se référencer. Il ne reste plus qu’à reprendre chacun des points ci-dessus et de les appliquer aux sites concurrents !

Cette analyse permettra aussi de situer le site audité par rapport à un contexte réel et, soit de conserver une avance sur les autres, soit de rattraper un retard et, pourquoi pas, dépasser tout le monde.

Ne pas oublier qu’ils peuvent eux-mêmes être une source de renseignements, d’inspiration : trouver sur quels mots-clé ils resortent, pourquoi, leur densité et leur emplacement…

Outils pour analyser les sites concurrents&nbps;:

Evaluation de la visibilité d’un site :

Conclusion

La qualité du référencement naturel se compose donc de nombreux éléments, ayant chacun leur importance. Si son évaluation prend du temps, elle peut être un très bon indicateur des points forts et des points faibles d’un site. Elle permet donc de savoir quels sont les points à améliorer et dans quelle direction. Faites à intervales réguliers, une évaluation de la qualité du référencement naturel permet aussi de voir les progrès, quelles les modifications qui ont eu un impact positif, neutre ou négatif…
Bref, elle permet d’affiner la connaissance de son propre site, de la façon dont les moteurs peuvent réagir par rapport à lui … Elle permet d’affiner ses propres connaissances en référencement naturel.

Il ne me reste plus qu’à remercier Seg pour ses conseils avisés.

Référencement naturel : critères importants

  1. le contenu
    Le contenu doit être pertinant et fait pour les utilisateurs (pas pour les moteurs de recherche). Inclu :

    • la densité des mots-clé, placés dans un contexte sémantiquement cohérant
    • la non-similarité des pages
  2. la balise <title>
    Doit être adaptée au contenu de la page.
    Utilisée mais également affichée par les moteurs de recherche.
    (voir la fiche : title (balise))
  3. les liens entrants et sortants pertinents
    Plus les backlinks sont pertinants nombreux, plus ils servent le référencement. Les liens sortant en rapport avec le contenu ont également une influence bénéfique.
    (voir la fiche : a)
  4. En cas d’interdiction : robots.txt
    (voir la fiche : robotx.txt)
  5. les balises <h1> à <h6>
    Elles servent à hiérarchiser la page. Attention à ne pas les detourner de leur usage car elles sont, entre-autres, très importantes pour les lecteurs vocaux.
  6. L’URL
    Si l’URL contient les mots-clé recherchés par l’internaute, le site aura beaucoup plus de chance de ressortir.
    Dans le cas d’une marque, une URL significative doit contenir le nom de la marque.
  7. la balise meta « description »
    Plus importante pour recevoir une visite d’un internaute que pour les moteurs de recherche.
    (voir la fiche : description / keywords)
  8. la mise à jour des pages : date de la dernière mise à jour et fréquence
    Les moteurs de recherche (et les internautes !) aiment les sites fréquemment actualisés. Si, entre deux visites d’un moteur, le contenu d’une page n’a pas changé, le spider espacera ses visites.
  9. la balise meta « keywords »
    Importance de plus en plus infime.
    (voir la fiche : description / keywords)
  10. les balises <strong> et <em>
    Toujours en respectant la logique du contenu et l’internaute.