Audit de référencement

Un audit de référencement est un processus complexe visant à évaluer les performances d’un site web par rapport à ses positions dans les classements des moteurs de recherche. L’infrastructure technique, les différents facteurs sur la page et hors page, les performances dans les médias sociaux et les positions des concurrents dans le SERP sont examinés dans le cadre de cet audit. L’objectif d’un audit SEO est d’optimiser la visibilité, la convivialité et les conversions d’un site web.

Informations générales

Généralement, un audit de référencement est utilisé pour vérifier les sites web sur la base de listes de contrôle afin de formuler des recommandations d’amélioration sur la base de ces listes. Les audits SEO peuvent être décrits comme des actions de gestion de la qualité. L’état réel du site web est évalué et comparé avec les normes des moteurs de recherche. L’état DÉSIRÉ d’un audit SEO dépend du site web (taille et cible) et des normes des différents moteurs de recherche (Google, Bing ou Yahoo).

La durée de l’analyse dépend également de ces deux facteurs. Selon l’ampleur du projet, elle peut prendre jusqu’à six semaines et coûter entre 300 et 3 000 euros. Les audits SEO sont généralement réalisés par des agences externes, des consultants ou des employés SEO internes.

La plupart des audits commencent par une discussion entre l’auditeur et le client. Les questions sont clarifiées, par exemple :

Quel est l’objectif ou le modèle commercial du site web ?
Quels sont les domaines clés du site web qui sont particulièrement importants pour le client ?
Quelles mesures de référencement ont été (ou sont encore) mises en œuvre ?
Comment peut-on modifier le serveur, la gestion des données, le CMS et le code source ?
Quels sont les points d’accès à la console de recherche Google, etc.
Quels sont les résultats que l’on peut attendre de l’expérience ?
Aspects d’un audit SEO
La base d’un audit est initialement constituée de données sous forme de feuilles de calcul ou de tableurs Excel ainsi que d’un document qui sert au client de recommandation d’action. Sur la base des données obtenues, des recommandations sont formulées, qui sont marquées de différents symboles (par exemple, des symboles rouges pour les changements absolument nécessaires). Ces fichiers constituent également une documentation qui rend les étapes du processus transparentes pour le client.

Serveur et infrastructure

Pour connaître l’état de l’infrastructure technique, le site est soit lu avec un crawler, soit vérifié indirectement avec les outils pour webmasters du moteur de recherche (par exemple, Google Search Console et Bing Webmaster Tools). Par exemple, le crawler détectera les messages d’erreur pour des URL spécifiques.

D’autres facteurs techniques importants sont également pris en compte :

Robots.txt et les balises meta des robots : Le crawler est-il autorisé à lire les sites web ? Les pages individuelles sont-elles bloquées par les méta-tags des robots ?
Code d’état Http : Certaines URL produisent-elles un code d’erreur (4xx, 5xx et aussi Soft 404) lorsqu’elles sont appelées ? Comment la redirection est-elle gérée ?
Sitemaps XML : Le moteur de recherche dispose-t-il d’un sitemap ? S’agit-il d’un document XML valide ? Les pages figurant sur le plan du site correspondent-elles aux résultats du crawler ?
Vitesse de la page et temps au premier octet : À quelle vitesse le site se charge-t-il lorsqu’il est appelé ? Combien de temps s’écoule-t-il avant que le premier octet de données soit chargé à partir du serveur ?
Frames, Flash et JavaScript : Les iFrames, Flash ou JavaScript sont-ils utilisés pour mettre en œuvre le contenu et les menus ?
URL dynamiques, canoniques et pages paginées : Les URL générées dynamiquement sont-elles réécrites avec mod-rewrite ? Existe-t-il une URL canonique qui sert de domaine principal ? Les pages sont-elles paginées correctement avec rel= »next » et rel= »prev » ?

Indexation et visibilité

Combien de sites web d’un domaine sont répertoriés dans l’index du moteur de recherche respectif ? Y a-t-il ou y a-t-il eu des pénalités ou des actions manuelles de la part de Google pour les sites individuels ? Il est possible de répondre à ces questions en comparant l’index et les résultats du crawling. L’index de Google peut être interrogé à l’aide de commandes telles que « site : www.example.com », par exemple. L’idéal serait que les données correspondent.
Si ce n’est pas le cas, elles indiquent soit des erreurs de crawling (les sites ne sont pas lus, et donc également non indexés), soit des doublons (il y a des sites avec des doublons dans l’index). La saisie de mots-clés pertinents (marque, nom de société, services, produits) dans la barre de recherche permet d’avoir un aperçu supplémentaire de la visibilité en ce qui concerne certains mots-clés. Même les sites web individuels ayant une adresse complète peuvent être vérifiés pour leur existence dans l’index.

Architecture de l’information

L’architecture de l’information est la structure verticale et horizontale d’un site web qui peut être représentée comme un arbre inversé. Combien de clics faut-il à un utilisateur pour accéder aux informations qu’il a recherchées ? Combien de niveaux existent en termes de profondeur du site web ? Combien y a-t-il d’éléments de site horizontaux ? Les sous-pages les plus importantes devraient être accessibles en trois clics environ. Une structure globale relativement plate est également importante afin d’enrichir le parcours du client.

L’architecture du site web a également un impact sur les liens au sein de la hiérarchie. Le jus de lien doit être réparti de manière égale entre les structures pour éviter les silos, qui sont des structures qui ne répartissent le jus de lien qu’horizontalement.

Audit SEO on-page (Dans les pages)

URL : Les URL doivent être courts, parlants et donc conviviaux. En outre, ils doivent inclure les mots clés pertinents pour les pages individuelles et, si possible, ne pas contenir de caractères spéciaux. Les URL dynamiques utilisent souvent des paramètres. Si c’est le cas, ces URL doivent être réécrites ou enregistrées dans la console de recherche.
Dupliquer le contenu : Certaines URL produisent du contenu dupliqué. Ceci est à éviter absolument.
Contenu : Le contenu peut être inspecté à l’aide d’un navigateur en mode texte tel que SEO Browser ou Browseo. Chaque page doit fournir des informations substantielles aux utilisateurs, être bien lisible et inclure les mots clés les plus importants pour cette page individuelle. Une structure claire avec l’utilisation de titres H1-H6 et des balises de texte supplémentaires est recommandée. Il convient d’éviter les bourrages de mots clés et les erreurs grammaticales.
Méta titre : Un des facteurs de classement les plus importants. La balise titre contient généralement des mots clés pertinents et décrit le contenu de la page.
Méta description : De bonnes méta descriptions peuvent attirer les utilisateurs vers le site et augmenter le taux de clics. Là encore, un ou deux mots clés doivent décrire le contenu du site.
Images : Les descriptions d’images, de logos et de graphiques doivent être concises. La balise ALT spécifie une autre description de l’image, si des programmes de lecture ou similaires sont utilisés. Là encore, les mots clés peuvent être utilisés de manière modérée.
Liens sortants et internes : Les hyperliens servent de recommandations pour la qualité d’un site web. Chaque lien sortant doit être vérifié pour la fiabilité du site, la pertinence du contenu et le texte d’ancrage. Les messages d’erreur et les redirections inutiles doivent être évités. Idéalement, la plupart des liens sont réglés sur « dofollow » pour permettre au jus du lien de se répandre.

Audit SEO off-page (Hors du site)

Popularité : quel est le volume de trafic du site web ? Quelle est sa popularité par rapport à la concurrence ? Le site est-il lié à d’autres sites web populaires ?
Fiabilité : Le site contient-il une forte densité de mots clés ? Y a-t-il du texte caché qui est invisible pour les robots d’exploration ? Utilise-t-on le camouflage ?
Liens de retour : Un profil de lien organique est l’un des critères les plus importants pour un audit de référencement. Combien de domaines ont un lien avec le site web en question ? Combien de domaines différents existe-t-il ?

Le profil de liens contient-il des liens de type nofollow (aucun lien de type nofollow n’aurait l’air naturel) ? Les liens de retour sont-ils pertinents en termes de sujet et de qualité ? Y a-t-il des sites qui incluent des médias gagnés ?

Autorité : L’autorité des sites ou sous-sites individuels et des domaines entiers peut affecter le classement.
Relations publiques : L’entreprise, la marque ou le site web sont-ils mentionnés dans différents médias ?
Médias sociaux : Il existe différents signaux sociaux pour chaque réseau social. Dans la plupart des cas, les interactions entre les utilisateurs et un profil sont au centre des préoccupations. Le contenu est-il distribué ? Le site web est-il mentionné dans les médias sociaux des utilisateurs ? Y a-t-il des influenceurs qui distribuent le contenu de manière virale ? Le profil social est-il optimisé pour le référencement ?
Concurrence : Les informations sur la concurrence aident les clients à comprendre les forces et les faiblesses de leurs concurrents et à améliorer leur portefeuille. Pour obtenir de telles données, un audit SEO peut être effectué sur les concurrents, bien sûr, avec quelques modifications puisque certaines informations ne sont pas disponibles.Avec l’analyse des textes par TF*IDF, les concurrents qui réussissent peuvent également être identifiés par rapport à des mots-clés.

Optimisation de la pertinence des moteurs de recherche

Un audit SEO révèle les forces et les faiblesses d’un site web et montre les potentiels d’amélioration. Outre les aspects fondamentaux tels que la facilité d’utilisation, l’indexation et les facteurs de mise en page, la convivialité d’un site web est un signal important. Bien que le comportement des utilisateurs ne change que légèrement sur de longues périodes, les facteurs de classement et les normes des moteurs de recherche sont en constante évolution. C’est l’une des principales raisons pour lesquelles un audit de référencement doit être effectué régulièrement.

L’audit SEO vise non seulement à optimiser les sites web pour les moteurs de recherche, mais aussi à fournir aux utilisateurs un contenu de qualité et un bon parcours client. Toutefois, les audits SEO sont très étendus. Certaines agences le divisent donc en sections et proposent des audits de contenu, des audits sur page, des audits hors page et des audits techniques de référencement.

Les outils et logiciels d’audit gratuits sont recommandés aux entreprises dont le budget est limité.On peut citer par exemple MySiteAuditor, ScreamingFrog, ZadroWeb, Found, SEO ReportCard, WooRank et Marketing Grabber. En outre, il existe de nombreux outils qui peuvent être utiles pour certaines tâches, tels que Xenu comme crawler, Google PageSpeed et Pingdom comme testeurs de temps de chargement, SEMRush comme test de trafic et Opensiteexplorer comme validateur de liens. Toutefois, des connaissances approfondies sont souvent nécessaires pour interpréter correctement les données lorsque l’on utilise des outils gratuits.

Cet article a été écrit par Claude

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *