Le pilier technique est la base du SEO, c’est les fondations d’un site qui sont à implémenter dès sa construction. Si ton site est déjà terminé, ne panique pas, il est toujours possible de corriger tout ça avec un bon audit SEO technique !
Pour un débutant du SEO c’est le côté le plus compliqué à appréhender au début, mais je vais tout faire pour qu’après la lecture de cette page, tu aies une bien meilleure vision du sujet.
Pour imager le SEO technique, c’est l’équivalent des fondations de ta maison, tu as tout intérêt à créer une base solide avant de développer toute sa structure. Pourtant un bon nombre de créateurs de sites web (même les développeurs web…) ne maîtrisent pas encore ce sujet. Si c’est ton cas, il est grand temps de te rattraper.
N’hésite surtout pas à partager la page à ton ami développeur qui néglige complètement cet aspect !
Définition et objectif d’un audit SEO technique
L’audit SEO technique est une prestation réalisée par une agence ou un consultant SEO destiné à analyser l’aspect technique d’un site web ayant un lien direct avec son référencement naturel.
Il est idéalement effectué par un expert SEO qui aura l’oeil pour repérer de nombreux détails qui seraient omis par un débutant. Si tu tiens à le réaliser tout seul, c’est également possible en suivant ce guide, mais attention, on ne s’improvise pas expert !
L’objectif de cet audit est de donner toutes les recommandations d’amélioration technique au propriétaire d’un site web pour qu’il ait toutes les clés en main afin d’avoir un site web adoré de Google !
Une optimisation technique peut parfois avoir un impact très important sur le référencement d’un site. Si tu ne veux pas que Google fasse des cauchemars en repensant au crawl de ton site, lis attentivement ce guide !
La toolbox du SEO technique
L’audit SEO technique en 8 étapes
1. Réaliser un crawl technique
Première étape indispensable avant d’attaquer l’audit technique, le crawl de ton site, on aura besoin de cette analyse pour la suite.
Google utilise un robot qui parcourt le web en passant de liens en liens, c’est ce qu’on appelle un crawler.
Des logiciels permettent d’avoir son propre crawler à sa disposition ! C’est complètement indispensable pour voir son site de la même manière que les moteurs de recherche.
Ces logiciels permettent de détecter toutes les erreurs qu’il est possible de rencontrer en parcourant un site : liens cassés, images trop lourdes, title manquant… Ton site n’aura aucun secret pour un crawler.
Si tu as moins de 500 URLs à crawler, le choix de l’outil est vite vu, dirige toi vers Screaming Frog, l’outil le plus simple et efficace du marché. Au-dessus de 500, l’outil devient payant, il faudra alors, soit débourser 200€/an, soit te diriger vers un crawler gratuit. Si tu préfères l’option gratuite, Xenu est le crawler parfait pour toi.
Tu as ton crawler ? Il est temps de lancer ton premier crawl, en fonction de l’outil choisi tu trouveras de nombreux tutoriels sur internet pour apprendre à l’utiliser, garde l’outil ouvert on en aura besoin dans la suite du guide !
2. Vérifier les bases pour une bonne indexation
Laissons de côté le crawl pour s’attarder aux bonnes pratiques recommandées par Google pour optimiser l’indexation de tes pages.
Sitemap
Si ton site a des soucis d’indexation et que tu ne sais pas ce qu’est un sitemap, il y a une piste à creuser de ce côté.
Les Sitemap sont des fichiers au format XML et HTML qui sont une véritable carte de navigation d’un site web.
Le sitemap XML permet de recenser toutes les pages d’un site avec des informations utiles comme la date de dernière modification afin de guider les moteurs de recherche dans l’exploration d’un site. Il est donc à envoyer dans la search console et sur bing webmaster tools pour accélérer l’indexation des pages de ton site.
La plupart des CMS permettent sa génération automatique, on le retrouve alors à l’adresse site.com/sitemap.xml.
Il existe aussi des plugins pour le générer facilement (comme Yoast SEO sur wordpress), si tu ne trouves pas d’outils tu peux te référer au tutoriel de Google.
Le Sitemap HTML est tout simplement le plan du site, souvent situé dans le footer, plutôt destiné aux utilisateurs (même si les moteurs de recherches peuvent l’utiliser). On ne va pas se mentir, presque aucun utilisateur ne l’utilise. Pour ce sitemap, il existe encore une fois des extensions pour le générer rapidement.
Robots.txt
Robots.txt est un fichier magique qui permet de parler aux robots de Google !
Il permet notamment d’indiquer au robot de Google de ne pas indexer une certaine page grâce à l’écriture de règles.
Rends toi sur site.com/robots.txt pour vérifier qu’il existe bien sur ton site et que les pages que tu ne souhaite pas indexer sont en “disallow”. Imaginons que je veux bannir mes mentions légales des moteurs de recherche, je modifierais mon robots.txt comme ci-dessous :
User-agent: *
Disallow: /mentions-legales
3. Challenger la structure
Il y a plusieurs façons de structurer un site web, en SEO on optera plutôt pour un cocon sémantique théorisé par Laurent Bourrelly. L’objectif est de structurer son site sous forme de silos sémantiques afin d’avoir un maillage interne puissant qui maximise le ROI de l’ensemble du travail SEO, en particulier celui réalisé lors de l'audit netlinking.
On peut l’imaginer sous la forme d’un arbre généalogique avec la page mère qui fait un lien à ses pages filles qui se font un lien entre elles. Les filles sont ensuite les mères de pages petites filles, etc…
La finalité est de regrouper tes pages d’une même sémantique en les “étanchéisant” sous forme de silo. Concrètement les petites filles se font un lien entre elles mais ne le font pas à leurs cousines qui sont dans un groupement sémantique différent. C’est important de faire sa structure de cette façon car la transmission de puissance SEO se fait de manière sémantique.
Pour être plus concret, faisons une mini structure d’un site de boxe.
Dans cette structure la page “mettre un high kick” serait un article informationnel beaucoup plus accessible que la page “boxe thaï” d’un point de vu concurrentiel mais aussi bien moins recherchée, c’est une page support qui donne de la puissance au cocon.
Une fois que ta structure est en place, tu pourras te servir de ton fichier de crawl pour réaliser une visualisation de ta structure et de ton maillage interne avec Gephi.
4. Analyser les URLs
L’URL est ce qui permet d’identifier une ressource donnée de ton site, le plus important ici est la simplicité et la consistance. On les garde simples et on évite de les changer au risque de provoquer une avalanche d’erreurs 404.
Structure d’URL
Une URL doit être le plus simple possible, l’URL de cette page est /prestations/audit-seo/technique, une mauvaise URL serait /prestations-seo/audit-seo-complet/guide-d-un-audit-technique-seo-réussi-en-etapes.
Il est inutile de bourrer de mots clés une URL, il faut qu’elle soit clairement compréhensible pour l’utilisateur.
Autre bonne pratique : évite de mettre les catégories dans l’url d’un blog ou d’un e-commerce, sinon au moindre changement de catégorie, ton site sera rempli d’erreurs. Google ne se repère pas via la structure d’URL mais via le maillage interne, le fil d’ariane et le sitemap.
Même si tu as l’impression d’avoir fait n’importe quoi avec tes URLs, évite de les modifier et applique plutôt ces conseils pour tes prochaines pages.
Erreurs
Grâce au crawl tu peux facilement détecter les erreurs présentes sur les URLs de ton site, ensuite réfère-toi à la liste des différents codes HTTP ci-dessous pour comprendre ce qu’elles représentent. Il te suffira de corriger ce qui te semble critique : par exemple changer un lien qui mène à une 404 (lien cassé). Tu peux aussi changer les 301 par les URL définitives pour optimiser la diffusion de puissance SEO.
1xx (Information) :
- 100 Continue : La requête est bonne, le serveur attend le reste de la requête avant de la traiter
2xx (Succès) :
- 200 OK : La requête a été exécutée avec succès
- 201 Created : La requête a été exécutée et une nouvelle ressource a été créée
- 204 No Content : La requête a été exécutée avec succès mais il n'y a pas de représentation à renvoyer
3xx (Redirection) :
- 301 Moved Permanently : La ressource a été déplacée définitivement vers une nouvelle URL
- 302 Found : La ressource a été temporairement déplacée vers une nouvelle URL
- 304 Not Modified : La ressource n'a pas été modifiée depuis la dernière requête
4xx (Erreur client) :
- 400 Bad Request : La syntaxe de la requête est mal formée
- 401 Unauthorized : Pour accéder à la ressource, il faut s'authentifier
- 403 Forbidden : L'accès à la ressource est interdit
- 404 Not Found : La ressource demandée n'a pas été trouvée sur le serveur
- 429 Too Many Requests : Trop de requêtes ont été faites dans un certain laps de temps
5xx (Erreur serveur) :
- 500 Internal Server Error : Le serveur a rencontré une situation qu'il ne sait pas traiter
- 502 Bad Gateway : Le serveur agit en tant que passerelle et a reçu une réponse invalide
- 503 Service Unavailable : Le serveur n'est pas disponible temporairement
- 504 Gateway Timeout : Le serveur agit en tant que passerelle et n'a pas reçu de réponse à temps
URL canoniques
La balise canonical indique quelle est la page d’origine aux moteurs de recherche en cas de contenu dupliqué. Même sans présence de contenu dupliqué, il est conseillé de mettre une balise “self referencing” sur chaque page de son site.
Vérifie bien que ton site soit correctement balisé à ce niveau, par exemple si tu as un produit avec plusieurs variantes tu pourras définir la première variante comme URL canonique et les autres comme URL canonisés. Tu trouveras ces infos dans la partie “Versions canoniques” de Screaming Frog. Tu peux aussi utiliser l’extension Detailed pour le vérifier simplement sur une page donnée.
URL orphelines
Les URLs orphelines sont des pages sans liens entrants : aucun chemin ne mène à elles. Aucun intérêt de faire une page si elle n’est pas accessible, et pour le maillage interne c’est vraiment pas optimal. Il faudra donc, soit supprimer ces pages, soit créer des liens internes.
On peut retrouver ces pages en utilisant un crawler. Sur Screaming Frog, elles sont trouvables dans : Vue d’ensemble > sitemaps > URL orphelines. Il faudra bien avoir coché l’option “Crawler ces sitemaps” dans : Configuration > SEO Spider > Crawl.
HTTPS
Il n’est aujourd’hui plus possible d’avoir un site non sécurisé. Le certificat SSL permet aux utilisateurs de naviguer en toute sécurité en cryptant la communication, quand un site dispose de ce certificat, ses URLs sont en https. Ce certificat s’obtient auprès de son hébergeur.
L’URL d’un site doit bien contenir https dans son URL et la version http doit rediriger vers le version https.
Ici il suffit de regarder la liste d’URL de son site sur son crawler et de tester la redirection d’http vers https directement sur son navigateur.
5. Surveiller les données structurées
Les données structurées permettent d’organiser des informations d’une façon compréhensible pour les moteurs de recherche.
Pour le SEO ça permet, entre autres, d’avoir accès à des résultats enrichis dans la page de résultats pour prendre plus de place et se démarquer des autres sites. Des questions ou des avis peuvent par exemple s’afficher au bon vouloir de Google.
Ces données peuvent être mises en place en respectant un code spécifique disponible sur schema.org. On peut ensuite vérifier ces données structurées via validator.schema.org. Pour voir si une page spécifique est éligible aux résultats enrichis, Google propose un outil spécifique.
Tu peux très facilement mettre en place les résultats enrichis FAQ grâce au mini outil SEO que je propose sur mon site. Pour moi ce sont les données structurées les plus simples à mettre en place.
Il est important de mettre en place ces données structurées pour un fil d’ariane, sur un CMS comme WordPress c’est assez simple à implémenter via les paramètres ou un plugin.
6. Balises
Les balises permettent de renseigner une information aux moteurs de recherche et aux utilisateurs grâce à un tag en code HTML. C’est une base complètement indispensable au SEO.
Title
La balise title est le titre qui apparaît sur la page de résultats de recherche, il est souvent confondu avec le titre H1 qui est le titre principal d’une page, on en reparle juste après.
Ce title doit donner envie de cliquer et comporter le mot clé principal de la page. Il est important qu’il soit pertinent avec le contenu présent sur la page.
Pour avoir un title efficace, il faut qu’il soit en dessous de 65 caractères, sinon il risque d’être tronqué.
Meta description
La meta description apparaît également dans la page de résultats de recherche, sous le title. L’idée ici est surtout d’optimiser son taux de clic au maximum en donnant envie à l’utilisateur de cliquer.
La description doit faire entre 100 et 155 caractères pour être assez longue sans qu’elle soit tronquée (Google s’amuse parfois à changer ça).
Il ne faut surtout pas négliger le title et la meta description, ça prend 2 minutes à écrire et ça permet de bien optimiser ton référencement. On peut difficilement mieux faire en termes de ROI…
N’hésite pas à utiliser l’outil dispo sur mon site pour vérifier la longueur de tes balises meta et title.
Hn
Je me suis brûlé la rétine un nombre incalculable de fois avec ces balises, c’est l’erreur que l’on retrouve le plus quand on audit un site. Ces balises font aussi parti de l'audit de contenu SEO permettent de structurer un contenu en créant une hiérarchie de titres.
Concrètement ça donne ça :
<h1>titre principal</h1>
<h2>titre</h2>
- <h3>sous-titre</h3>
- <h4>sous-sous titre</h4>
- <h4>sous-sous titre</h4>
- <h3>sous-titre</h3>
<h2>titre</h2>
Il faut commencer par vérifier dans son crawler qu’on a pas de H1 en double et qu’on a bien un H1 et des H2 sur chaque page.
On peut ensuite utiliser l’extension Detailed SEO pour vérifier que son contenu est structuré logiquement sur chacune de ses pages.
7. Monitorer les performances
Un site peu performant peut voir son taux de rebond exploser : les utilisateurs naviguent de plus en plus rapidement et n’hésitent pas à quitter un site s’il est trop lent à charger.
Test de vitesse
La première étape pour faire un état des lieux des performances d’un site est le test de vitesse, il peut être effectué via un outil comme PageSpeed Insight ou GTmetrix. GTmetrix est plus gentil que PageSpeed Insight mais donne des indications plus claires sur les optimisations à effectuer, on peut facilement y retrouver les éléments et scripts d’un site qui posent problème.
Petite astuce si tu ne comprends rien au développement informatique, tu peux t’aider de ChatGPT qui pourra t’expliquer à quoi sert tel où tel script qui te semble lourd sur ta page. Ça t’aidera à retirer tout le superflu plus facilement.
Optimisation des images
Un des points les plus récurrents et facile à corriger dans l’optimisation des performances d’un site est la correction des problèmes d’images :
- Compression : on peut drastiquement réduire la taille d’une image sans toucher à sa qualité en utilisant un outil en ligne comme tinypng ou un plugin comme imagify sur wordpress qui le fait en automatique.
- Dimension : il faut dimensionner correctement ses images : inutile d’avoir une image en 5000x5000 qui sera bien trop lourde, même compressée.
- Format : une bonne pratique est de convertir ses images au format WebP qui est léger et optimisé pour le web, c’est possible de le faire automatiquement avec imagify ou manuellement avec Convertio.
- Lazy loading : le chargement différé permet de faire charger une ressource uniquement quand elle est utile, ce qui permet d’éviter de charger les images hors écran. La mise en place peut se faire facilement via un plugin de vitesse comme WP Rocket ou LiteSpeed
Tant qu’on est sur l’optimisation d’images, attention à l’attribut alt, rien à voir avec les performances mais il permet de décrire l’image en ajoutant une description comme ceci <img src="super-image.jpg" alt="une superbe image"/>. Cette description ajoute un contexte à l’image et a un impact positif sur le référencement.
Optimisation du code
Le code peut, lui aussi, être compressé, on peut le faire manuellement en utilisant WP Rocket ou LiteSpeed ou bien via un outil comme refresh-sf.
8. Penser à l’utilisateur
Une bonne expérience utilisateur passe évidemment par l’optimisation des performances de son site et beaucoup d’autres points du SEO technique qui facilitent la vie à l’utilisateur parcourant un site. Voyons d’autres points qui sont indispensables pour l’expérience utilisateur.
Ergonomie mobile
La plupart des utilisateurs du web sont désormais sur mobile, ne pas faire un site adapté à toutes les tailles d’écran n’est plus acceptable.
Il existe des outils pour vérifier l’ergonomie mobile, comme celui de Google qui peut aider à repérer certains problèmes. Mais rien ne vaut l’oeil humain pour tester cet aspect, il suffit de faire un clic droit sur chrome puis “inspecter” pour avoir une vision d’une page donnée dans toutes les tailles d’écrans différentes.
Fil d’ariane
Le fil d’ariane permet à Google de comprendre la structure et la profondeur du site en ayant une vision claire d’où se trouve une page donnée. Il permet aussi à l’utilisateur de se retrouver plus facilement et de retourner à une page mère en un clic.
Voici un exemple d’un fil d’ariane pour la page “Audit SEO” qui est une page fille de “Prestations”.
Voici un exemple d’un mauvais fil d’ariane qui n’indiquerait pas la présence d’une page mère.
Checklist de l’Audit SEO technique
Conclusion
J’ai essayé d’aller à l’essentiel en étant le plus clair possible pour que tu sois capable de réaliser un bon audit SEO en suivant ces étapes. Si tu es débutant, il est normal que tu sois un peu perdu en lisant ce guide, n’hésite pas à découvrir mes prestations d’audit SEO complet si tu veux que j’analyse ton site !