Web

Référencement d’un site

Sources :


Définition

Le terme « référencement » (en anglais SEO pour Search Engine Optimization, traduisez Optimisation pour les moteurs de recherche) désigne l’ensemble des techniques permettant d’améliorer la visibilité d’un site web, à savoir le positionnement (en anglais ranking) des pages d’un site en bonne place dans les pages de résultats pour certains mots-clés.

Il existe des outils permettant de comparer le volume de recherche d’un mot-clé par rapport à un autre et donnant des suggestions :

Enfin, il existe des sites permettant de connaître les mots-clés des sites concurrents :

Il existe quelques techniques de conception de site permettant de donner plus d’efficacité au référencement des pages d’un site :

  • un contenu original et attractif,
  • un titre bien choisi,
  • une URL adaptée,
  • un corps de texte lisible par les moteurs,
  • des balises META décrivant précisément le contenu de la page,
  • des liens bien pensés,
  • des attributs ALT pour décrire le contenu des images.

Comment faire?

Google est le principal moteur de recherche en France avec 90% de parts de marché. La page pour référencer une URL dans Google est la suivante : https://www.google.com/webmasters/tools/submit-url.

Le référencement dans Bing passe par l’utilisation des outils pour Webmasters. Il suffit de se créer un compte et de suivre la procédure sur la page suivante : http://www.bing.com/toolbox/webmaster

Désormais Yahoo s’appuie sur Bing pour son moteur de recherche. La page suivante explique comment soumettre de nouvelles URL : https://fr.aide.yahoo.com/kb/SLN2217.html

Voila est le moteur utilisé par les services de Orange.fr. Même s’il a une part de marché plus faible que Google et Bing, il est tout de même intéressant d’y figurer. L’adresse pour se référencer sur Voila est la suivante : http://referencement.ke.voila.fr/index.php

Exalead est un moteur de recherche français alternatif. Pour soumettre son site sur Exalead, il suffit d’utiliser la page suivante : http://www.exalead.com/search/web/submit/

En revanche il est possible d’une part d’acheter des mots-clés sur les moteurs de recherche, il s’agit alors d’emplacement publicitaires (appelés liens sponsorisés), situés autour des résultats de recherche dits naturels. On parle alors de SEM (Search Engine Marketing) par opposition au SEO (Search Engine Optimization).

Vérifier que le site est bien référencer, taper dans la barre de navigation : site:votresite.org.

TITRE

Le titre est l’élément de prédilection pour décrire en peu de mots le contenu de la page, c’est notamment le premier élément que le visiteur va lire dans la page de résultat du moteur de recherche, il est donc essentiel de lui accorder une importance particulière. Le titre d’une page web est décrit dans l’en-tête de la page web entre les balises et .

Le titre doit décrire le plus précisément possible, en 6 ou 7 mots maximum, le contenu de la page web et sa longueur totale recommandée ne doit idéalement pas dépasser la soixantaine de caractères. Enfin, il doit idéalement être aussi unique que possible dans le site pour que la page ne soit pas considérée comme du contenu dupliqué.

Le titre est d’autant plus important qu’il s’agit de l’information qui s’affichera dans les résultats de recherche, dans les favoris de l’internaute, dans la barre de titre et les onglets du navigateur ainsi que dans l’historique.

BODY

Les cadres (frames) dans le body sont fortement déconseillés car ils empêchent parfois l’indexation du site dans de bonnes conditions.

BALISES META

Les META Tags sont des balises non affichées à insérer en début de document HTML afin de décrire finement le document. Etant donné l’usage abusif des métas constaté dans un nombre important de sites web, les moteurs utilisent de moins en moins ces informations lors de l’indexation des pages. La balise meta “keywords” a ainsi été officiellement abandonnée par Google.

META description

La balise meta description permet d’ajouter une description décrivant la page, sans les afficher aux visiteurs (par exemple des termes au pluriel, voire avec des fautes d’orthographe volontaires). C’est généralement cette description (ou une partie de cette description) qui s’affichera dans les SERP. Il est conseillé d’utiliser le codage HTML pour les caractères accentués et de ne pas dépasser une vingtaine de mots clés.

META robots

La balise meta robots a une importance particulière car elle permet de décrire le comportement du robot vis-à-vis de la page, notamment indiquer si la page doit être indexée ou non et si le robot est autorisé à suivre les liens.

Par défaut l’absence de balise robots indique que le robot peut indexer la page et suivre les liens qu’elle contient.

La balise robots peut prendre les valeurs suivantes :

  • index, follow : cette instruction revient à ne pas mettre de balise robots puisque c’est le comportement par défaut.
  • noindex, follow : le robot ne doit pas indexer la page (toutefois le robot peut revenir régulièrement pour voir s’il existe de nouveaux liens)
  • index, nofollow : le robot ne doit pas suivre les liens de la page (par contre le robot peut indexer la page)
  • noindex, nofollow : le robot ne doit plus indexer la page, ni suivre les liens. Ceci se traduira par une baisse drastique de la fréquence de visite de la page par les robots.

Voici donc un exemple de balise robots :

Notez également l’existence des valeur suivante, pouvant être cumulées avec les valeurs précédentes :

  • noarchive : le robot ne doit pas proposer aux utilisateurs la version en cache (notamment pour le cache de Google).
  • noodp : le robot ne doit pas proposer la description de DMOZ (Open Directory Project) par défaut

Il est possible de cibler spécifiquement le robots d’exploration de Google (Googlebot) en remplaçant le nom robots par Googlebot (il est toutefois conseillé d’utiliser la balise standard afin de rester générique) :

Dans le cas où un grand nombre de pages ne doivent pas être indexées par les moteurs de recherche, il est préférable de les bloquer via le robots.txt car dans ce cas les robots d’exploration ne perdent pas de temps à crawler ces pages et peuvent ainsi concentrer toute leur énergie sur les pages utiles.

Liens internes

Afin de donner le maximum de visibilité à chacune de vos pages, il est conseillé d’établir des liens internes entre vos pages pour permettre aux crawlers de parcourir la totalité de votre arborescence. Ainsi il peut être intéressant de créer une page présentant l’architecture de votre site et contenant des pointeurs vers chacune de vos pages.

Cela signifie par extension que la navigation du site (menu principal) doit être pensée pour donner efficacement accès aux pages ayant un fort potentiel en terme de SEO.

NetLinking

Le terme NetLinking désigne le fait d’obtenir des liens externes pointant vers son site web car cela augmente d’une part le trafic et la notoriété de son site, d’autre part car les moteurs de recherches prennent en compte le nombre et la qualité des liens pointant vers un site pour caractériser son niveau de pertinence (c’est le cas de Google avec son indice appelé PageRank).

Liens Nofollow

Les liens sont par défaut suivis par les moteurs de recherche (en l’absence de META robots nofollow ou d’un fichier robots.txt empêchant l’indexation de la page). Toutefois, il est possible d’indiquer aux moteurs de recherche de ne pas suivre certains liens en utilisant l’attribut nofollow.

Ceci est notamment recommandé si :

  • Le lien fait l’objet d’un accord commercial (liens payants)
  • Le lien est ajouté par des utilisateurs non sûrs dans des espaces contributifs du site (commentaires, avis, forums, etc.).

Attributs ALT des images

Les images du site sont opaques pour les moteurs de recherche, c’est-à-dire qu’ils ne sont pas capables d’en indexer le contenu, il est donc conseillé de mettre un attribut ALT sur chacune des images, permettant d’en décrire le contenu. L’attribut ALT est également primordiale pour les non-voyants, navigant à l’aide de terminaux en braille.

Il est également conseillé de renseigner un attribut title permettant d’afficher une infobulle à l’utilisateur décrivant l’image.

Améliorer le crawl

Le référencement commence par le crawl (en français exploration) de votre site par les robots d’exploration des moteurs de recherche. Il s’agit d’agents parcourant les sites à la recherche de nouvelles pages à indexer ou bien de pages à mettre à jour. Un robot d’indexation agit en quelque sorte comme un visiteur virtuel : il suit les liens présents sur votre site afin d’explorer le maximum de pages. Ces robots sont identifiables dans les logs par l’en-tête HTTP User-Agent qu’ils envoient. Voici les user-agents des principaux moteurs de recherche : Googlebot, etc.

Ainsi, il convient de faire en sorte de mailler intelligemment ses pages à l’aide de liens afin de permettre aux robots d’accéder au maximum de pages, le plus rapidement possible.

Pour améliorer l’indexation de votre site, il existe plusieurs méthodes :

Robots.txt

Il est possible et souhaitable de bloquer les pages inutiles au référencement à l’aide d’un fichier robots.txt afin de permettre aux robots d’indexation de consacrer toute leur énergie aux pages utiles. Les pages en doublon (ayant par exemple des paramètres inutiles aux robots) ou les pages ayant peu d’intérêt pour les visiteurs depuis une recherche (résultats de recherche interne du site, etc.) peuvent typiquement être bloquées ;

Vitesse de chargement des pages

Il est important d’améliorer le temps de chargement des pages, en utilisant par exemple des mécanismes de cache car cela permet d’une part d’améliorer l’expérience utilisateur et donc la satisfaction des visiteurs et d’autre part car les moteurs de recherche prennent de plus en plus en compte ces types de signaux dans le positionnement des pages ;

Sitemap

Le fait de créer un fichier sitemap permet de donner accès au robots à l’ensemble de vos pages ou des dernières pages indexées.

Réseaux sociaux

De plus en plus de moteurs de recherche prennent en compte les signaux de partage sociaux dans leur algorithme. Google Panda prend notamment en compte ce critère pour déterminer si un site est de qualité ou non. Autrement dit, le fait de favoriser le partage social limite les risques d’impact par les algorithmes tels que Panda.

Référencement d’un site mobile

L’idéal est d’avoir un site mobile conçu en responsive design car, dans ce cas, la page indexée pour les ordinateurs de bureau et terminaux mobile est la même, seul son affichage change selon le périphérique d’affichage.

Si votre site web mobile est sur un domaine ou sous-domaine à part, il suffit de rediriger automatiquement les internautes vers le site mobile en faisant attention que chaque page redirigée pointe bien vers son équivalent sur le site mobile. Il faut également s’assurer que le crawler Googlebot-Mobile soit bien traité comme un terminal mobile !

Google a indiqué que les pages “mobile-friendly” ont un boost SEO sur les pages non mobile friendly dans les résultats de recherche sur mobile. Ce boost s’applique page par page et est réévalué au fil de l’eau pour chaque page, selon qu’elle passe ou non le test.

Pour approfondir: Référencement d’un site mobile

Contenu dupliqué

Dans la mesure du possible, il s’agit de créer des titres de pages uniques sur l’ensemble du site, car les moteurs de recherche tels que Google ont tendance à ignorer le contenu dupliqué (en anglais duplicate content), c’est-à-dire soit de nombreuses pages du site ayant le même titre ou bien des pages du site dont le principal contenu existe sur le site ou des sites tiers.

Le contenu dupliqué est quelque chose de naturel, ne serait-ce que par le fait que nous sommes amené à faire des citations, à rapporter des propos de personnalités ou encore à faire mention à des textes officiels. Toutefois, une trop grande proportion de contenu dupliqué sur un site peut conduire à une pénalité algorithmique, il est donc conseillé de bloquer un tel contenu à l’aide d’un fichier robots.txt ou une balise META robots ayant pour valeur “noindex”.

Balise canonical

Lorsque les moteurs de recherche détectent du contenu dupliqué, ils n’en conservent qu’une seule page, selon leurs propres algorithmes, ce qui peut parfois conduire à des erreurs. Ainsi, il est conseillé de faire figurer dans les pages possédant du contenu dupliqué une balise Canonical pointant vers la page à conserver.

En voici la syntaxe : http://votresite/pagefinale”/>

D’une manière générale, il est conseillé de faire figurer dans vos pages une balise canonical avec l’URL de la page en cours. Cela permet notamment de limiter la déperdition liée aux paramètres inutiles dans l’URL tel que http://www.commentcamarche.net/forum/?page=1 ou encore http://www.commentcamarche.net/faq/?utm_source=mail !

Cela sert également pour les pages d’index car il arrive que Google indexe votre page d’accueil sous sa forme http://www.commentcamarche.net/ et http://www.commentcamarche.net/index.php

Pénalités

On distingue généralement deux types de pénalités :

  • Les pénalités manuelles, c’est-à-dire résultant d’une action humaine, faisant suite à un non respect des consignes aux webmasters. Il peut s’agir de liens non naturels (liens achetés), de contenu artificiel, de redirections trompeuses, etc. Les pénalités pour achat de liens sont courantes et pénalisent le site ayant vendu des liens ainsi que ceux l’ayant acheté. Ces pénalités ne peuvent être levées qu’après avoir corrigé le problème (ce qui suppose d’avoir identifié le problème) et effectué une demande de réexamen du site via le formulaire consacré. Le réexamen d’un site web peut prendre plusieurs semaines et ne conduit pas nécessairement à une récupération de position ou parfois partielle ;
  • Les pénalités algorithmiques, c’est-à-dire ne résultant d’aucune action humaine, liée généralement à un ensemble de facteurs que seul le moteur de recherche connaît. C’est le cas par exemple de Google panda, l’algorithme de Google déclassant les sites dits de mauvaise qualité ou de Google Penguin, un algorithme ciblant les mauvaises pratiques SEO. Ces pénalités ne peuvent être levées qu’après avoir éliminé les “signaux” conduisant à un déclassement, à l’itération suivante de l’algorithme.

Algorithme Google

L’algorithme de Google est l’ensemble des instructions permettant à Google de donner une page de résultats suite à une requête.

PageRank

A l’origine l’algorithme était uniquement basé sur l’étude des liens entre les pages web et reposait sur un indice affecté à chaque page et nommé PageRank (PR). Le principe est simple : plus une page a de liens entrants, plus son PageRank augmente. Plus une page a de PageRank, plus elle en distribue à ses liens sortants. Par extension, on parle du PageRank d’un site pour désigner le PageRank de sa page d’accueil, car c’est généralement la page qui a le plus grand PageRank parmi toutes les pages du site.

Optimisations de l’algorithme

Depuis le PageRank, l’algorithme prend en compte un grand nombre de signaux supplémentaires, parmi lesquels (liste non exhaustive) :

  • la fraîcheur de l’information ;
  • la mention de l’auteur ;
  • le temps passé, le degré d’implication du lecteur ;
  • les sources de trafic autres que les SEO
  • etc.

Google annonce procéder à environ 500 optimisations de l’algorithme par an, soit plus d’une modification par jour. De ce fait, les SERP peuvent varier de façon importante selon les modifications effectuées par les équipes de Google.

Google Panda

Panda est le nom donné au filtre déployé par Google pour lutter contre les sites de mauvaises qualités. Le principe consiste à dégrader le positionnement des sites dont le contenu est jugé de qualité trop faible :

Google Penguin

Google Penguin est une mise à jour de Google pénalisant les sites dont l’optimisation SEO est jugée excessive. C’est le cas par exemple des sites dont un trop grand nombre de liens proviennent de sites jugés comme “spammant”. Il semblerait également qu’un abus de liens entre pages parlant de sujets disparates soit un facteur pouvant entraîner une pénalité via l’algorithme Google Penguin. Google a ainsi mis en place un formulaire permettant de désavouer des liens pouvant potentiellement porter préjudice au référencement d’un site (voir l’historique des déploiements de Google Penguin).

Sortir d’une pénalité algorithmique

Dans un premier temps, il faut s’assurer que la baisse d’audience est bien liée à un changement d’algorithme. Pour cela, il faut déterminer si la baisse coïncide avec un déploiement connu de Panda ou Penguin. Si c’est le cas, il y a de grandes chances que cela soit lié. Il est à noté que le déploiement peut prendre plusieurs jours, voire plusieurs semaines, ce qui signifie que la baisse n’est pas nécessairement brutale.

Afin de sortir d’une pénalité algorithmique, il est conseillé de faire une revue manuelle de ses principales pages de contenus et de vérifier point par point si la qualité est au rendez-vous et si le contenu est bien unique. En cas de qualité insuffisante, il sera nécessaire de modifier ce contenu pour l’améliorer ou bien de le déréférencer (ou le supprimer). Concernant Google Penguin, il faut regarder les liens pointant vers le site dans Google Webmaster Tools et s’assurer que les liens sont d’une part naturels, d’autre part de bonne qualité (dans des sites n’ayant pas l’air d’être du spam).


Aide et outils de référencement

Outils d’analyse et de suivi SEO

Myposeo un outil de suivi du référencement. Insérez l’adresse URL de votre site et des mots clés puis étudiez la progression de votre site sur chaque requêtes. Consultez facilement le volume de trafic que peut vous apporter un mot clé

Avec Google Developers Effectuez le test de Google pour savoir si votre site est mobile-friendly – Appliquez un thème responsive puis suivez nos conseils pour avoir un site mobile-friendly

Positeo vous permet d’analyser votre positionnement sur Google sur différents mots clés

Trouvez des idées de mots clés avec Adwords.

Gratuit, la Search Console vous fournit des informations sur les liens pointant vers votre site et des rapports sur l’indexation de vos pages

Woorank propose des conseils marketing personnalisés pour améliorer votre site et augmenter votre trafic

Conseil et aide en référencement

Le guide de Google : D’excellents conseils pour concevoir un site de qualité et réussir son référencement : télécharger le guide (PDF)

Webrankinfo : Annuaire et Forum francophone pour parler de référencement

http://www.webrankinfo.com

Forum e-monsite : Bénéficiez de l’aide de la communauté e-monsite et posez vos questions aux experts en référencement. https://www.e-monsite.com/forum/questions-sur-le-referencement-google-comment-faire-connaitre-son-site

Blog e-monsite : Consultez le blog e-monsite et enrichissez vos connaissances en consultant des articles liés au référencement.

https://www.e-monsite.com/blog/referencement-seo

Guide SEO mobile : Assurez-vous que les moteurs de recherche puissent consulter votre site sur plusieurs appareils (mobile, ordinateur, tablette). Découvrez les conseils de Google

https://developers.google.com/webmasters/mobile-sites/mobile-seo/?hl=fr


Comptes Twitter de consultants en référencement

France

  • @abondance_com : Olivier Andrieu, fondateur du site Abondance.com
  • @axenetwit : Sylvain Richard, référenceur et fondateur du blog spécialisé en SEO Axe-Net.fr
  • @largox : Virginie Clève, responsable du Pôle Marketing Digital à Radio France
  • @oseox : Aurélien Bardon, consultant en référencement et fondateur de Oseox.fr
  • @renaudjoly : Renaud Joly, responsable SEO de LaRedoute.fr
  • @rochdaniel : Daniel Roch, Consultant indépendant en référencement et fondateur du blog SEOmix
  • @webrankinfo : Olivier Duffez, consultant en référencement et fondateur de WebRankInfo.com
  • @Zorgloob : Éric Lebeau, fondateur de Zorgloob, site spécialisé sur l’actualité Google.
  • @Mar1e : Marie Pourreyron, gérante d’Altiref, agence de référencement de sites internet.
  • @dsampaolo : Didier Sampaolo, conseiller technique senior spécialiste en référencement.

USA

  • @google : compte officiel de Google
  • @mattcutts : compte officiel de Matt Cutts, responsable de la cellule anti spam chez Google.
  • @sengineland : compte officiel du site SearchEngineLand, un site américain de référence spécialisé en SEO / SEM / PPC.
  • @dannysullivan : compte officiel de Danny Sullivan, éditeur du site SearchEngineLand
  • @seobook : compte officiel du site américain SEObook, spécialisé en référencement
  • @SEOmoz : compte officiel du site SEOmoz, un outil américain de suivi de positionnement.
  • @googlewmc : compte officiel de Google Webmaster Tools, donnant les informations sur les dernières évolutions de l’outil.

Laisser un commentaire

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.