
Par Patrick Stox
SEO technique chez Ahrefs
Le SEO technique est la partie la plus importante du SEO jusqu’à ce qu’il ne le soit plus. Les pages doivent être explorables et indexables pour avoir ne serait-ce qu’une chance de se positionner, mais de nombreuses autres activités auront un impact minimal comparé au contenu et aux liens.
Nous avons écrit ce guide pour débutants afin de vous aider à comprendre certaines bases et où il vaut mieux consacrer votre temps pour maximiser l’impact.
Le SEO technique est la pratique qui consiste à optimiser votre site web pour aider les moteurs de recherche à trouver, Explorer le web, comprendre et indexer vos pages. Il aide à augmenter la visibilité et les classements dans les moteurs de recherche. Il est également important pour la recherche IA.
Ça dépend. Les fondamentaux ne sont pas vraiment difficiles à maîtriser, mais le SEO technique peut être complexe et difficile à comprendre. Je vais garder les choses aussi simples que possible dans ce guide.
Oui. La recherche IA dépend toujours de pages web explorables, bien structurées et dignes de confiance. Le SEO technique garantit que votre site est rapide, accessible et indexable, ce qui augmente les chances que votre contenu soit utilisé dans des réponses pilotées par l’IA ainsi que dans la recherche traditionnelle.
Dans ce chapitre, nous allons voir comment nous assurer que les moteurs de recherche peuvent Explorer le web efficacement votre contenu.
L’exploration du web consiste à ce que les moteurs de recherche récupèrent le contenu des pages et utilisent les liens qu’elles contiennent pour trouver encore plus de pages. Il existe plusieurs façons de contrôler ce qui est exploré sur votre site web. Voici quelques options.
Un fichier robots.txt indique aux moteurs de recherche et aux plateformes IA où ils peuvent et ne peuvent pas aller sur votre site.
La plupart des moteurs de recherche et des Crawler IA respectent vos paramètres robots.txt. Si vous les interdisez explicitement, ils obéiront et n’Exploreront le web pas votre contenu et ne l’incluront pas dans les données d’entraînement. Mais si vous empêchez les moteurs de recherche et les LLM d’utiliser votre site web comme matériel d’entraînement, vous limitez aussi vos chances d’être visible dans leurs réponses.
Le saviez-vous ?
Google et certains LLM peuvent indexer des pages qu’ils ne peuvent pas Explorer le web si des liens pointent vers ces pages. Cela peut être déroutant, mais si vous voulez éviter que des pages soient indexées, consultez ce guide et organigramme qui peut vous accompagner tout au long du processus.
LLMs.txt est un format volontaire permettant d’indiquer aux modèles de langage à grande échelle (LLM) comment ils peuvent utiliser votre contenu, mais comme nous l’expliquons dans notre guide sur LLMs.txt, il n’est pas particulièrement efficace ni très utile.
Il n’existe encore aucune preuve que LLMs.txt améliore la récupération par l’IA, augmente le trafic ou améliore la précision du modèle.
Il existe une directive crawl-delay que vous pouvez utiliser dans robots.txt et que de nombreux crawlers prennent en charge. Elle vous permet de définir la fréquence à laquelle ils peuvent explorer des pages. Malheureusement, Google ne la respecte pas.[1] Pour Google, vous devrez modifier la fréquence d’exploration dans Google Search Console.[2]
Si vous souhaitez que la page soit accessible à certains utilisateurs mais pas aux moteurs de recherche, alors ce que vous voulez probablement, c’est l’une de ces trois options :
Ce type de configuration est idéal pour des éléments comme des réseaux internes, du contenu réservé aux membres ou des sites de préproduction, de test ou de développement. Elle permet à un groupe d’utilisateurs d’accéder à la page, mais les moteurs de recherche ne pourront pas y accéder et ne l’indexeront pas.
Pour Google en particulier, la façon la plus simple de voir ce qu’il explore est d’utiliser le rapport « Statistiques sur l’exploration » dans Google Search Console, qui vous donne plus d’informations sur la façon dont il explore votre site web.
Si vous souhaitez voir toute l’activité d’exploration sur votre site web, y compris celle des crawlers d’IA, vous devrez accéder aux journaux de votre serveur et éventuellement utiliser un outil pour mieux analyser les données. Cela peut devenir assez technique. Mais si votre hébergement dispose d’un panneau de contrôle comme cPanel, vous devriez avoir accès aux journaux bruts et à certains outils d’agrégation comme AWstats et Webalizer.
Chaque site web aura un budget de crawl différent, qui combine la fréquence à laquelle Google veut Explorer le web d’un site et le volume d’exploration que votre site autorise. Les pages plus populaires et celles qui changent souvent seront explorées plus fréquemment, et les pages qui ne semblent pas populaires ou bien liées seront explorées moins souvent.
Si les crawlers détectent des signes de surcharge lors de l’exploration de votre site web, ils ralentiront généralement, voire arrêteront d’explorer jusqu’à ce que les conditions s’améliorent.
Après que les pages ont été explorées, elles sont rendues et envoyées à l’index. L’index est la liste principale des pages qui peuvent être retournées pour des requêtes de recherche. Parlons de l’index.
Dans ce chapitre, nous allons voir comment s’assurer que vos pages sont indexées et vérifier comment elles sont indexées.
Une balise meta robots est un extrait HTML qui indique aux moteurs de recherche comment Explorer le web ou indexer une certaine page. Elle est placée dans la section <head> d’une page web et ressemble à ceci :
<meta name="robots" content="noindex" />
Lorsqu’il y a du contenu dupliqué qui crée plusieurs versions de la même page, Google en sélectionnera une à stocker dans son index. Ce processus s’appelle la canonicalisation et l’URL sélectionnée comme canonique sera celle que Google affichera dans les résultats de recherche. Il existe de nombreux signaux qu’il utilise pour sélectionner l’URL canonique, notamment :
Pour voir en toute simplicité comment Google a indexé une page, il suffit d’utiliser l’outil d’inspection d’URL dans Google Search Console. L’URL canonique sélectionnée par Google s’affichera.

L’une des choses les plus difficiles pour les SEO est la priorisation. Il existe beaucoup de bonnes pratiques, mais certains changements auront plus d’impact sur vos classements et votre trafic que d’autres. Voici quelques projets que je recommande de prioriser.
Assurez-vous que les pages que vous voulez que les gens trouvent peuvent être indexées dans Google. Les deux chapitres précédents portaient entièrement sur l’exploration et l’indexation, et ce n’était pas un hasard.
Vous pouvez consulter le rapport Indexabilité dans Site Audit pour trouver les pages qui ne peuvent pas être indexées et les raisons connexes. C’est gratuit dans Ahrefs Webmaster Tools.

Lancer un audit SEO technique gratuit
En vous inscrivant ici, vous aurez accès gratuitement à Ahrefs Webmaster Tools ↗
Les sites web ont tendance à changer leurs URL au fil des années. Dans de nombreux cas, ces anciennes URL ont des liens provenant d’autres sites web. Si elles ne sont pas redirigées vers les pages actuelles, ces liens sont perdus et ne comptent plus pour vos pages. Il n’est pas trop tard pour mettre en place ces redirections, et vous pouvez rapidement récupérer toute valeur perdue. Voyez cela comme le Netlinking le plus rapide que vous ferez de votre vie.
Vous pouvez trouver des opportunités pour récupérer des liens perdus en utilisant Site Explorer d’Ahrefs. Saisissez votre domaine, allez dans le rapport Best by Links et ajoutez un filtre de réponse HTTP « 404 not found ». En général, je trie cela par « Domaines référents ».
Voici à quoi cela ressemble pour 1800flowers.com :

En regardant la première URL dans archive.org, je vois qu’il s’agissait auparavant de la page de la fête des mères. En redirigeant cette page unique vers la version actuelle, vous récupérerez 225 liens provenant de 59 sites web différents — et il y a encore bien plus d’opportunités.
J’ai même créé un script pour vous aider à faire correspondre les redirections. N’ayez pas peur : il vous suffit de télécharger quelques fichiers et de les importer. Le notebook Colab vous guide pas à pas et s’occupe du gros du travail pour vous.
Vous voudrez faire une redirection 301 de toutes les anciennes URL vers leurs emplacements actuels afin de récupérer cette valeur perdue.
Le saviez-vous ?
Une Redirection 301 est une redirection permanente. Tous les liens pointant vers l’URL redirigée compteront pour la nouvelle URL aux yeux de Google.[3]
Les Liens internes sont des liens d’une page de votre site vers une autre page de votre site. Ils aident vos pages à être trouvées et contribuent aussi à mieux les classer. Nous avons un outil dans Site Audit appelé Internal Link Opportunities qui vous aide à localiser rapidement ces opportunités.
Cet outil fonctionne en recherchant des mentions de mots-clés pour lesquels vous êtes déjà bien classé sur votre site. Il vous les suggère ensuite comme des opportunités de liens internes contextuels.
Par exemple, l’outil détecte une mention de “navigation à facettes” dans notre guide sur le contenu dupliqué. Comme Site Audit sait que nous avons une page sur la navigation à facettes, il suggère d’ajouter un Lien interne vers cette page.

Le balisage Schema est du code qui permet aux moteurs de recherche de mieux comprendre votre contenu et qui alimente de nombreuses fonctionnalités pouvant aider votre site web à se démarquer du reste des résultats de recherche. Il peut également aider les LLM a interpréter correctement le contenu de votre page. Google dispose d’une galerie de recherche qui présente les différentes fonctionnalités de recherche et le schéma requis pour que votre site soit éligible.
L’IA a changé la manière dont le contenu est trouvé et affiché aux internautes, mais elle repose toujours sur une base de pages web explorables, bien structurées et dignes de confiance. Elle change aussi la façon dont nous créons et optimisons le contenu.
Prêter attention à quelques facteurs techniques spécifiques à l’IA peut vous aider à rester visible partout où les internautes recherchent des informations.
Comme les moteurs de recherche, les LLM doivent pouvoir Explorer le web votre site web et accéder à son contenu. Cependant, ils fonctionnent un peu différemment des Crawler des moteurs de recherche.
Par exemple, la plupart des LLM ne rendent pas le JavaScript, un langage de code courant utilisé pour créer des sites web. Si le contenu clé ou la navigation n’apparaît qu’après le chargement du JavaScript, il y a un risque que certains Crawler IA ne le voient pas. Il vaut donc mieux éviter de l’utiliser pour tout contenu critique que vous voulez visible dans la recherche IA.
Il vaut aussi la peine de vérifier si des outils tiers bloquent les Crawler IA et les empêchent d’accéder à votre site web.
Par exemple, Cloudflare a introduit de nouvelles fonctionnalités permettant aux propriétaires de sites web de contrôler si des plateformes d’IA peuvent scraper du contenu pour leurs jeux de données d’entraînement.

Le réglage par défaut empêche les crawlers d’IA d’accéder au contenu. Cependant, vous devrez le désactiver si vous voulez que votre contenu maximise votre visibilité dans les résultats de recherche IA.
Les systèmes de recherche IA peuvent citer des URL sur votre domaine qui n’existent pas. Vous pouvez les trouver dans Web Analytics d’Ahrefs en regardant les pages qui reçoivent du trafic de recherche IA :

Si l’une de ces pages renvoie une Erreur 404, le système IA a peut-être halluciné l’URL. Pour éviter de perdre du trafic, vous pouvez rediriger cette URL vers une page pertinente et en ligne.
Une surveillance régulière évite la frustration des utilisateurs et protège l’autorité de la marque.
Même s’il est possible d’utiliser l’IA pour créer du contenu pour votre site web, trop de contenu généré par l’IA peut être considéré comme un signal de spam qui limite la visibilité de votre contenu dans les systèmes de recherche traditionnels et IA.

Vous pouvez utiliser le détecteur d’IA d’Ahrefs dans Site Explorer > Inspecter la page pour voir comment les machines peuvent évaluer le niveau d’IA présent dans votre contenu.

Vous pouvez aussi le vérifier en masse dans le rapport Meilleures pages pour repérer des pages existantes qui pourraient devoir être réécrites :

Si vous avez utilisé l’IA pour aider à créer votre site web ou y ajouter de nouvelles fonctionnalités, cela peut ajouter du code HTML supplémentaire qui révèle que l’IA a été utilisée.
Dans un cas, un bug de Yoast SEO a inséré des classes cachées liées à l’IA dans des pages, rendant évident pour les moteurs de recherche que l’IA était impliquée.

Si vous utilisez des outils d’IA pour effectuer des modifications on-page, vérifiez le code source de votre site pour vous assurer qu’aucun élément inattendu n’est ajouté. Des « empreintes » cachées comme celles-ci peuvent être évitées grâce à des revues de code régulières et à des tests avant de publier des mises à jour.
Les projets dont nous parlerons dans ce chapitre sont tous de bonnes choses sur lesquelles se concentrer, mais ils peuvent demander plus de travail et apporter moins de bénéfices que les projets « quick win » de la partie précédente. Cela ne veut pas dire que vous ne devez pas les faire. C’est simplement pour vous aider à vous faire une idée de la façon de prioriser différents projets.
Ce sont des facteurs de classement moins importants, mais ce sont tout de même des éléments à examiner pour vos utilisateurs. Ils couvrent des aspects du site web qui ont un impact sur l’expérience utilisateur (UX).
Signaux de recherche de Google pour l’expérience de page

https://ahrefs.com/blog/core-web-vitals/
Les Core Web Vitals sont des métriques de vitesse qui font partie des signaux d’expérience de page de Google utilisés pour mesurer l’expérience utilisateur. Les métriques mesurent le chargement visuel avec Largest Contentful Paint (LCP), la stabilité visuelle avec Cumulative Layout Shift (CLS) et l’interactivité avec First Input Delay (FID).
HTTPS protège la communication entre votre navigateur et votre serveur contre l’interception et l’altération par des attaquants. Cela apporte la confidentialité, l’intégrité et l’authentification à la grande majorité du trafic WWW actuel. Vous voulez que vos pages se chargent via HTTPS et non via HTTP.
Tout site web qui affiche une icône de « cadenas » dans la barre d’adresse utilise HTTPS.

En bref, cela vérifie si les pages web s’affichent correctement et sont faciles à utiliser par les personnes sur des appareils mobiles.
Comment savoir si votre site est adapté aux mobiles ? Consultez le rapport « Ergonomie mobile » dans Google Search Console.

Ce rapport vous indique si l’une de vos pages présente des problèmes de compatibilité mobile.
Les interstitiels empêchent le contenu d’être vu. Il s’agit de fenêtres contextuelles qui couvrent le contenu principal et avec lesquelles les utilisateurs peuvent devoir interagir avant qu’elles ne disparaissent.
Hreflang est un attribut HTML utilisé pour spécifier la langue et le ciblage géographique d’une page web. Si vous avez plusieurs versions de la même page dans différentes langues, vous pouvez utiliser la balise hreflang pour informer des moteurs de recherche comme Google de ces variantes. Cela les aide à servir la bonne version à leurs utilisateurs.
Ahrefs facilite désormais la mise en œuvre de hreflang grâce à un graphique visuel des liens hreflang dans Site Audit.

Ce graphique hreflang montre toutes les variantes linguistiques d’une page et met en évidence tout problème de configuration. De plus, il signale des erreurs comme des codes de langue invalides, des auto-liens manquants ou l’absence de balises réciproques, et fournit des indications claires pour les corriger.
Il est peu probable que ces tâches aient beaucoup d’impact sur vos classements, mais ce sont généralement de bonnes choses à corriger pour l’expérience utilisateur.
Les liens brisés sont des liens sur votre site qui pointent vers des ressources inexistantes. Ils peuvent être internes (c’est-à-dire vers d’autres pages de votre domaine) ou externes (c’est-à-dire vers des pages sur d’autres domaines).
Vous pouvez trouver rapidement des liens brisés sur votre site web grâce à Site Audit dans le rapport Liens. C’est gratuit dans Ahrefs Webmaster Tools.

Les chaînes de redirection sont une série de redirections qui se produisent entre l’URL initiale et l’URL de destination.
Vous pouvez trouver rapidement les chaînes de redirection sur votre site web avec Site Audit dans le rapport Redirects. C’est gratuit dans Ahrefs Webmaster Tools.

Ces outils vous aident à améliorer les aspects techniques de votre site web.

Google Search Console (anciennement Google Webmaster Tools) est un service gratuit de Google qui vous aide à surveiller et à résoudre les problèmes d’apparition de votre site web dans ses résultats de recherche.
Utilisez-le pour trouver et corriger des erreurs techniques, envoyer des sitemaps, voir les problèmes de données structurées, et plus encore.
Bing et Yandex ont leurs propres versions, et Ahrefs aussi. Ahrefs Webmaster Tools est un outil gratuit qui vous aidera à améliorer les performances SEO de votre site web. Il vous permet de :
C’est notre réponse aux limites de Google Search Console.

Le Mobile-Friendly Test de Google vérifie à quel point un visiteur peut facilement utiliser votre page sur un appareil mobile. Il identifie également des problèmes spécifiques d’utilisabilité mobile, comme un texte trop petit pour être lu, l’utilisation de plugins incompatibles, etc.
Le Mobile-Friendly Test montre ce que Google voit lorsqu’il Explore le web la page. Vous pouvez aussi utiliser le Rich Results Test pour voir le contenu que Google voit sur ordinateur ou sur des appareils mobiles.

Chrome DevTools est l’outil intégré de Chrome pour déboguer des pages web. Utilisez-le pour diagnostiquer des problèmes de Vitesse de page, améliorer les performances de rendu des pages web, et plus encore.
D’un point de vue SEO technique, il présente une infinité d’utilisations.

Ahrefs’ SEO Toolbar est une extension gratuite pour Chrome et Firefox qui fournit des données SEO utiles sur les pages et les sites web que vous visitez.
Ses fonctionnalités gratuites sont :
De plus, en tant qu’utilisateur d’Ahrefs, vous obtenez :

PageSpeed Insights analyse la vitesse de chargement de vos pages web. En plus du score de performance, il affiche aussi des recommandations concrètes pour accélérer le chargement des pages.

Patrick Stox est Product Advisor, SEO technique et Brand Ambassador chez Ahrefs. Il a été l’auteur principal du chapitre SEO du Web Almanac 2021 et reviewer du chapitre SEO 2022. Il a également coécrit le SEO Book For Beginners d’Ahrefs et a été Technical Review Editor pour The Art of SEO (4e édition). Il est organisateur du Triangle SEO Meetup et de la conférence Tech SEO Connect, anime un groupe Slack de SEO technique, et est modérateur de /r/TechSEO sur Reddit.
Avant de commencer à apprendre le SEO, vous devez comprendre le fonctionnement des moteurs de recherche.
Apprenez à configurer votre site Web pour le succès du SEO et à vous familiariser avec les quatre principales facettes du SEO.
Le point de départ du SEO est de comprendre ce que recherchent vos clients cibles.
Apprenez à créer du contenu qui se classe dans les moteurs de recherche.
C'est là que vous optimisez vos pages pour aider les moteurs de recherche à les comprendre.
Les liens permettent aux moteurs de recherche de découvrir de nouvelles pages et d’évaluer leur « autorité ». Il est difficile de se positionner sur des mots-clés compétitifs sans liens.
Il est important de s’assurer qu’aucun faux pas technique n’empêche Google d’accéder à votre site Web et de le comprendre.
Vous ne pouvez pas parler de SEO aujourd’hui sans mentionner l’IA générative.