Ressources STÆNK

SEO On-Site : Qu’est ce que c’est ?

seo on site : explications et exemples

Lorsque l’on évoque le référencement naturel, il existe une manière de découper la discipline en 3 types d’optimisations (autres que technique, contenu, popularité !).

On peut en effet différencier optimisations on-site, on-page et off-site.

Le SEO on-site représente toutes les optimisations SEO réalisées sur le site internet, de manière globale. Il comprend du SEO technique, à l’échelle du site, ainsi que du SEO on-page, qui est le SEO spécifique aux pages d’un site internet et ses contenus. 

Le SEO on-site s’oppose au SEO off-site (optimisations en dehors du site en lui-même).

De quoi se compose exactement le SEO On-Site ?

Voici une liste non exhaustive de critères de SEO On-Site importants pour votre site internet. Notons qu’ils ne vont pas tous avoir le même poids dans votre SEO.

  • L’arborescence / la structure du site

La structure de votre site joue un rôle déterminant dans votre référencement naturel. Il est donc capital de composer un menu en phase avec l’identité de votre site et ce que celui-ci a à proposer, mais également en phase avec l’utilisateur et ses recherches.

Ainsi, les pages de premier niveau (notamment les onglets principaux de votre menu, qui ont un poids important) de votre site doivent prendre en compte le volume de recherche des sujets que vous souhaitez mettre en avant.

Bref, pour penser une arborescence SEO-friendly, il est capital d’effectuer une recherche de mots-clés !

  • La profondeur des pages

Cela découle de la structure de site que vous aurez mis en place : plus vos pages seront éloignées dans votre arborescence, voire cachées, moins elles auront d’impact en SEO.

Faites en sorte que vos pages soient accessibles à moins de 4 clics de la page d’accueil !

  • L’existence de pages zombies

Qu’est-ce qu’une page zombie ? Il s’agit d’une page qui est peu voire pas positionnée en SEO (rapportant ainsi peu de trafic issu du référencement naturel) mais étant également très peu visitée directement sur le site.

En quoi ces pages zombies sont-elles pénalisantes pour un site et son SEO ? Eh bien, les moteurs de recherche sont susceptibles de passer sur des pages sans intérêt alors qu’ils auraient pu utiliser leur budget crawl pour explorer des pages réellement pertinentes de votre site.

Comment détecter les pages zombies ? Prenez vos données Analytics sur un an et exportez les pages qui rencontrent le moins de trafic. Croisez-les au nombre de mots qu’elles comportent. Faites un tri minutieux, il faut comprendre l’utilité de chaque page. Si elle est utile, modifiez-la et travaillez son maillage interne pour la faire vivre. Si elle n’est pas utile, vous pouvez la supprimer, faire une redirection…

Autrement, l’outil RMTech permet de les faire ressortir très facilement !

  • Le temps de chargement

Le temps de chargement, selon la communauté SEO, serait un critère léger. Il sera toutefois (sûrement) amené à être plus important, d’autant plus que tous s’accordent à dire que celui-ci est crucial d’un point de vue expérience utilisateur.

Pour disposer d’un bon temps de chargement, veillez à :

  • Minimiser vos fichiers image
  • Configurer au mieux votre mise en cache serveur
  • Disposer d’un serveur adapté à la taille de votre site
  • Le protocole Https

Il s’agit ici aussi d’un critère qui impacte peu, voire pas du tout les sites internet selon les SEO. 

Toutefois, là aussi, le https devient la norme et rassure grandement les visiteurs : il participe donc à l’expérience utilisateur et peut, à son échelle, être considéré comme critère on-site.

  • Erreurs 404 

Pour améliorer le crawl des robots des moteurs de recherche, votre site ne devrait pas contenir d’erreurs 404.

Les erreurs 404 posent en effet problème car il s’agit de pages qui n’existent plus (elles renvoient donc le code d’erreur), mais qui peuvent tout de même être encore indexées par les moteurs de recherche et/ou dont le lien existe toujours sur d’autres sites internet.

Comme trouver vos erreurs 404 ? En réalisant un crawl de votre site (avec Screaming Frog par exemple).

Comment corriger les erreurs 404 ? En réalisant des redirections 301 des anciennes pages vers de nouvelles pages de la même thématique.

  • Absence de mixed content

Le mixed content, c’est lorsqu’une de vos pages en https contient un lien vers une page en http. C’est à éviter, même si une redirection automatique a lieu !

  • Chaîne de redirection

Il peut arriver que votre site contienne un lien interne vers une page qui n’existe plus et qui a été redirigée. Vous avez donc des codes de redirection 301 dans la structure même de votre site. Le lien de la page A dirige vers la page B qui dirige vers la page C.

Pour optimiser le crawl des robots de Google, il est préférable de changer le lien de l’ancienne URL, redirigée, pour intégrer directement la nouvelle URL.

Vous pouvez trouver des chaînes de redirections à l’aide de Screaming Frog ou de l’audit Semrush.

  • Fichier robots.txt

Votre fichier robots.txt est-il conforme ? Bloque-t-il bien les ressources de votre site internet qui ne doivent pas être explorées ? Comporte-t-il bien un lien vers le sitemap du site ?

Le bon fonctionnement de son fichier robots.txt est important et il vous faudra le vérifier dans le cadre de votre démarche d’optimisation on-site !

  • Le fichier sitemap.xml

Le fichier sitemap.xml peut être considéré comme un répertoire des pages de votre site internet -du moins des pages que vous souhaitez que les moteurs de recherche crawlent en priorité.

Il va ainsi encourager Google et autres à opérer leur navigation sur ces pages en particulier. Cela a pour avantage d’accélérer le processus d’indexation !

Bien sûr, le sitemap.xml ne va pas empêcher les moteurs de recherche d’explorer les pages qui n’y sont pas répertoriées !

  • La compatibilité mobile

 Nul doute que d’un point de vue expérience utilisateur, la compatibilité de votre site avec la navigation sur smartphone est très importante. Et ce critère peut aujourd’hui être considéré comme un véritable critère SEO !

Un critère on-site, donc, à ne surtout pas négliger sur le long-terme.

  • L’absence de pages dupliquées

En SEO, chaque page de votre site doit avoir un but bien spécifique et donc satisfaire une intention de recherche utilisateur.

Pour faciliter la compréhension de votre site, ses pages et leurs thématiques par les internautes comme les moteurs de recherche, il est important qu’il n’y ait pas plusieurs pages web présentant le même contenu. Le contenu dupliqué peut en effet causer des risques de cannibalisation entre différentes pages, ce qui ne va pas être favorable à leur référencement naturel.

Comment repérer la présence de pages dupliquées ? L’audit Semrush notamment, ici aussi, vous le fera facilement remonter !

  • Et bien sûr, la partie la plus importante : le SEO On-Page ! 

Balise title, méta-description, balises H1, Hn, contenu, articles de blog, données structurées… On vous en dit plus dans notre article dédié au SEO On-Page !

Voilà : ainsi, le SEO On-site = la partie technique d’un site + le SEO On-page. Bien sûr, les éléments cités ne représentent que certaines des pistes d’optimisations on-site. 

Nous aurions également pu évoquer la gestion des balises canoniques, la mise en place d’un système de balise canonique self-referencing, la bonne gestion des balises hreflang dans le cas d’un site visant plusieurs langues, la prise en compte des nouveaux indicateurs UX de Google (Les “signaux web essentiels” : LCP, FID, CLS …)…

Oui, le SEO est grand 😇

Articles connexes

à propos de l'auteur.e. : Marie Lehner

Laisser un commentaire

Votre adresse de messagerie ne sera pas publiée. Les champs obligatoires sont indiqués avec *

LIVRES BLANCS

TOP 10 STRATÉGIE WEBMARKETING

Découvrez les 10 meilleures stratégies webmarketing en 2020. De la stratégie d'entreprise à l'exécution, gagner en efficacité opérationnelle.

BOOSTER SON REFERENCEMENT

Téléchargez notre livre blanc et découvrez l'ensemble du processus pour optimiser le référencement de votre site sur les moteurs de recherche.