Le guide du débutant en SEO technique

Patrick Stox
Patrick Stox est conseiller produit, spécialiste SEO technique et ambassadeur à Ahrefs. Il co-organise divers évènements comme le Raleigh SEO Meetup, Raleigh SEO Conference, Beer & SEO Meetup et Findability Conference. Il est aussi modérateur sur /r/TechSEO.
Le SEO tech­nique est la par­tie la plus impor­tante du SEO… jusqu’à un cer­tain point. Les pages doivent être explorables et index­ables pour avoir ne serait-ce que la chance de pou­voir se posi­tion­ner dans les moteurs de recherche. Mais d’autres ajuste­ments n’auront qu’un faible impact par rap­port au con­tenu et aux liens.

Nous avons rédigé ce guide du débu­tant pour vous aider à com­pren­dre les bases et vous per­me­t­tre d’optimiser votre temps de tra­vail. Il existe beau­coup de ressources com­plé­men­taires pour lesquelles nous vous don­nons des liens dans cet arti­cle, et encore plus de sug­ges­tions de lec­tures à la toute fin pour aller plus loin.

Allons‑y.

Chapters


    Comme nous sommes dans un guide du débu­tant, com­mençons par les bases.

    Qu’est-ce que le SEO technique ?

    Le SEO tech­nique c’est le proces­sus d’optimisation de site pour aider les moteurs de recherche comme Google à trou­ver, explor­er, com­pren­dre et index­er vos pages. Le but est d’être vis­i­ble dans les résul­tats de recherche et amélior­er le rank­ing (le posi­tion­nement dans les résultats).

    Est-ce que le SEO technique est compliqué ?

    Cela dépend. Les fon­da­men­taux ne sont pas vrai­ment com­plex­es à maîtris­er, mais le SEO tech­nique peut entr­er dans des sub­til­ités dif­fi­ciles à com­pren­dre. Nous allons rester aus­si sim­ples que pos­si­ble avec ce guide.


    Nous ver­rons dans cette par­tie les méth­odes pour s’assurer que les moteurs de recherche puis­sent explor­er (crawler) votre con­tenu de manière efficace.

    Comment fonctionne le crawling (l’exploration)

    Les crawlers (bots infor­ma­tiques) vont con­sul­ter le con­tenu des pages et suiv­re les liens qui s’y trou­vent pour décou­vrir d’autres pages. C’est comme cela qu’ils décou­vrent le con­tenu du web. Il y a plusieurs étapes dans ce proces­sus dont nous allons parler.

    Source: Google

    URL sources

    Les crawlers doivent com­mencer quelque part. En règle générale, ils créent une liste des URLs qu’ils trou­vent via les liens sur d’autres pages. Une autre méth­ode est de se servir des sitemaps qui sont générés par les util­isa­teurs des dif­férents sys­tèmes de créa­tion de sites, qui con­ti­en­nent une liste des pages.

    File d’attente de crawl

    Toutes les URL qui doivent être explorées ou re-explorées sont classées par ordre de pri­or­ité et ajoutées dans la file d’attente de crawl. Ce n’est ni plus ni moins qu’une liste ordon­née des URLs que Google veut explorer.

    Crawler

    Le pro­gramme qui va récupér­er le con­tenu des pages.

    Systèmes de traitement

    Il existe plusieurs sys­tèmes de traite­ment qui peu­vent pren­dre en charge la canon­i­sa­tion, dont nous allons par­ler un peu plus bas, et envoy­er ces pages à un sys­tème de ren­du qui va charg­er la page comme le ferait un nav­i­ga­teur. Ensuite cette page sera traitée pour trou­ver plus d’URLs à explorer.

    Rendu

    Le proces­sus de ren­du va charg­er la page comme le ferait un nav­i­ga­teur avec le JavaScript et le CSS. Google procède ain­si pour “voir” la page comme le ferait un utilisateur.

    Index

    Ce sont les pages stock­ées que Google va pro­pos­er à ses utilisateurs.

    Contrôler le crawl

    Il existe quelques méth­odes pour con­trôler ce qui va être exploré (crawlé) sur votre site. Voici quelques options.

    Robots.txt

    Un fichi­er robots.txt va dire aux moteurs de recherche où ils peu­vent ou ne peu­vent pas aller sur votre site.

    Une remar­que cepen­dant. Google peut tout de même index­er des pages qu’il n’est pas cen­sé pou­voir explor­er si des liens pointent vers les pages en ques­tion. Cela peut sem­bler con­fus, mais si vous voulez empêch­er ces pages d’être indexées, exam­inez ce guide et sché­ma qui vont vous guider dans la manœuvre.

    Fréquence de crawl

    Vous pou­vez met­tre dans le robots.txt une direc­tive qui va déter­min­er à quelle fréquence il faut explor­er la page que beau­coup de crawlers respectent. Mal­heureuse­ment ce n’est pas le cas de Google, pour chang­er sa fréquence de crawl, il faut pass­er par la Google Search Con­sole comme c’est expliqué ici.

    Restriction d’accès

    Si vous voulez que cer­taines pages ne soient acces­si­bles qu’à quelques util­isa­teurs et pas aux moteurs de recherche, vous aurez à recourir à l’une de ces trois options :

    • Un sys­tème de login
    • Une authen­tifi­ca­tion HTTP (un mot de passe est req­uis pour accéder au contenu)
    • Une whitelist d’IP (qui ne va per­me­t­tre qu’à cer­taines adress­es IP d’accéder aux pages)

    Ce genre de con­fig­u­ra­tion est idéale pour des réseaux internes, du con­tenu réservé à des mem­bres, ou pour tester et dévelop­per des sites. Cela per­met à un groupe d’utilisateurs d’accéder aux pages, mais pas aux moteurs de recherche qui ne pour­ront alors pas les indexer.

    Comment voir l’activité des crawlers

    Pour Google spé­ci­fique­ment, la manière la plus sim­ple pour voir ce qu’il est en train d’explorer est d’utiliser le Rap­port de cou­ver­ture de la Google Search Con­sole qui vous don­nera des infor­ma­tions sur la manière dont votre site est exploré.

    Si vous voulez voir toute l’activité d’exploration de votre site, vous allez devoir accéder aux logs de votre serveur et sans doute utilis­er un out­il pour analyser les don­nées. Cela peut être rel­a­tive­ment com­pliqué, mais si votre hébergeur à un sys­tème de con­trôle comme cPan­el, vous devriez pou­voir accéder à quelques logs de crawl et des agré­ga­teurs comme Awstats et Webalize.

    Ajustement de crawl

    Tous les sites vont avoir des “bud­gets de crawl” dif­férents, c’est-à-dire une com­bi­nai­son de fréquence de pas­sage du bot et de quan­tité d’exploration que votre site per­met. Les pages les plus pop­u­laires et celles qui changent le plus sou­vent seront explorées le plus régulière­ment, celles qui n’attirent pas beau­coup de vis­ites ou ne reçoivent pas beau­coup de liens seront explorées moins souvent.

    Si le crawler ren­con­tre des prob­lèmes dans le charge­ment du site, il va ralen­tir son explo­ration voire la stop­per en atten­dant que les con­di­tions s’améliorent.

    Une fois les pages explorées, elles sont ren­dues et envoyées à l’index. L’index est la grande liste de l’in­té­gral­ité des pages qui peu­vent remon­ter dans les résul­tats de recherche. Par­lons main­tenant de l’index.


    Nous allons par­ler dans cette par­tie de la manière de vous assur­er que vos pages sont indexées et de véri­fi­er com­ment elles le sont.

    Directives des robots

    Une meta tag de robots est un petit code HTML qui donne des instruc­tions aux moteurs de recherche sur la manière d’explorer et index­er cer­taines pages. On le trou­ve dans la sec­tion <head> d’une page web, et ça ressem­ble à ça :

    <meta name="robots" content="noindex" />

    URL canonique

    Lorsqu’il existe plusieurs ver­sions d’une même page, Google va en sélec­tion­ner une à stock­er dans son index. Ce proces­sus s’ap­pelle la canon­i­sa­tion, l’URL définie comme canon­ique (canon­i­cal en anglais) sera celle qui appa­raî­tra dans les résul­tats de recherche. Il existe plusieurs sig­naux pour déter­min­er si une URL est canon­ique ou non :

    La méth­ode la plus sim­ple pour voir ce que Google a indexé est d’utiliser l’outil d’inspection d’URL dans la Google Search Con­sole. Cela va vous mon­tr­er ce que Google a sélec­tion­né comme URL canonique.


    L’une des choses les plus dif­fi­ciles en SEO est la pri­or­i­sa­tion des tâch­es. Il y a beau­coup de bonnes pra­tiques, mais cer­taines auront plus d’impact sur votre rank­ing et votre traf­ic que d’autres. Voici quelques étapes que je vous recom­mande d’entreprendre en priorité.

    Vérifier l’indexation

    Assurez-vous que les pages que vous voulez que les gens trou­vent soient bien indexées par Google. Les deux par­ties précé­dentes par­laient de crawl­ing et d’indexation, ce n’est pas par hasard.

    Vous pou­vez véri­fi­er le rap­port d’indexation dans l’Audit de site pour voir les pages qui ne peu­vent pas être indexées et pourquoi. C’est gra­tu­it dans les out­ils de web­mas­ter de Ahrefs.

    Réclamer les liens perdus

    Les sites ont ten­dance à chang­er leurs URL au fil des années. Bien sou­vent, ces vieilles URLs four­nis­saient du back­link de la part d’autres sites. Si elles ne sont pas redirigées vers les pages actuelles, ces liens sont per­dus et ne comptent plus pour votre site. Il n’est pas trop tard pour met­tre en place des redi­rec­tions pour rapi­de­ment récupér­er cette valeur. Voyez cela comme la stratégie de link build­ing la plus rapi­de que vous puissiez faire.

    Explo­rateur de site -> votredomaine.com -> Pages -> Meilleures par liens -> ajouter “404 not found” dans le fil­tre HTTP. Je trie générale­ment par “domaines référents”.

    Voici ce que ça donne pour 1800flowers.com :

    En regar­dant les pre­mières URL dans archive.org, je vois que c’était à la base une page sur la fête des Mères. En met­tant en place une redi­rec­tion vers la nou­velle ver­sion, on peut réclamer 225 liens issus de 59 sites dif­férents. Et il y a encore beau­coup d’autres opportunités.

    Il fau­dra met­tre en place une redi­rec­tion 301 sur toutes les vieilles URLs vers leur nou­v­el emplace­ment pour récupér­er la valeur des backlinks.

    Ajouter des liens internes

    Les liens internes sont des liens entre les pages de votre site. Ils aident à faire trou­ver vos pages et donc à mieux les posi­tion­ner. Nous avons beau­coup d’outils au sein de l’Audit de site appelé oppor­tu­nités de liens qui pour­ront vous aider à mieux réalis­er le mail­lage interne de votre site.

    Ajouter des données structurées (schema markup) 

    Les don­nées struc­turées sont un code qui aide les moteurs de recherche à mieux com­pren­dre votre con­tenu et qui lui per­me­t­tent de sor­tir du lot dans les résul­tats de recherche. Google dis­pose d’une galerie de recherche qui mon­tre les dif­férentes pos­si­bil­ités offertes et com­ment les met­tre en place pour votre site.


    Les étapes dont nous allons par­ler dans cette par­tie sont tou­jours intéres­santes à dévelop­per, mais deman­dent plus de tra­vail et auront moins d’impact que celles de la par­tie précé­dente. Cela ne veut pas dire qu’il ne faut pas les suiv­re, juste que ce ne sont pas les pre­mières choses à faire. L’idée est de cor­recte­ment pri­oris­er vos tâches.

    Signaux d’expérience de page

    Ce sont des fac­teurs de rank­ing moins impor­tants, mais qu’il est bon de véri­fi­er pour le bien de vos util­isa­teurs. Cela cou­vre l’expérience util­isa­teur de votre site (UX).

    Core Web Vitals

    Les Core Web Vitals (par­fois appelé Sig­naux Web Essen­tiels en français) sont des sig­naux de vitesse qui font par­tie des fac­teurs de l’Expérience de Page Google. Ils ser­vent à mesur­er l’expérience util­isa­teur. Ces mesures pren­nent en compte le charge­ment visuel avec Largest Con­tent­ful Paint (LCP), la sta­bil­ité visuelle avec Cumu­la­tive Lay­out Shift (CLS) et l’in­ter­ac­tiv­ité de la page avec First Input Delay (FID)

    HTTPS

    Le pro­to­cole HTTPS empêche les com­mu­ni­ca­tions entre un nav­i­ga­teur et un serveur d’être inter­cep­tées ou mod­i­fiées par des attaques infor­ma­tiques. Cela assure la con­fi­den­tial­ité, l’intégrité et l’authenticité de la majeure par­tie du traf­ic du web. Il faut que vos pages char­gent en HTTPS et pas en HTTP.

    Tout site qui mon­tre un petit cade­nas fer­mé dans la barre d’adresse utilise HTTPS.

    Responsive design (mobile-friendly)

    Pour faire sim­ple, c’est la véri­fi­ca­tion que les pages s’affichent cor­recte­ment et sont faciles d’utilisation pour les per­son­nes nav­iguant sur mobile.

    Vous voulez savoir si votre site est mobile-friend­ly ? Véri­fiez le rap­port “Ergonomie mobile” dans la Google Search Con­sole.

    Ce rap­port va vous dire si cer­taines de vos pages présen­tent des prob­lèmes de nav­i­ga­tion sur mobile.

    Navigation sécurisée

    Ce sont des véri­fi­ca­tions pour con­firmer que vos pages ne sont pas trompeuses, ne con­ti­en­nent pas de mal­wares ou de télécharge­ment poten­tielle­ment dangereux.

    Éléments interstitiels

    On appelle élé­ment inter­sti­tiel ce qui cache votre con­tenu. Ça peut être des pop-up qui recou­vrent le con­tenu prin­ci­pal avec lesquels les util­isa­teurs doivent inter­a­gir avant de pou­voir partir.

    Hreflang — pour plusieurs langues

    Hre­flang est un attrib­ut HTML util­isé pour pré­cis­er la langue et l’emplacement géo­graphique visé pour une page. Si vous avez plusieurs ver­sions d’une même page en plusieurs langues, vous pou­vez utilis­er ce code pour indi­quer ces vari­a­tions aux moteurs de recherche comme Google. Cela va les aider à pro­pos­er la bonne ver­sion à leurs utilisateurs.

    Maintenance générale / santé du site

    Ces étapes de véri­fi­ca­tion n’auront pas beau­coup d’impact sur votre posi­tion­nement, mais elles peu­vent être impor­tantes pour amélior­er l’expérience utilisateur.

    Liens morts

    Les liens morts sont des liens qui pointent vers une ressource qui n’existe pas. Ça peut être interne (d’autres pages ou images de votre domaine) ou externe (des pages ou élé­ments d’un autre domaine)

    Vous pou­vez trou­ver les liens morts de votre site très rapi­de­ment grâce au rap­port de liens de l’Audit de Site. C’est gra­tu­it avec les Out­ils de web­mas­ter Ahrefs.

    Chaînes de redirection

    Les chaînes de redi­rec­tion sont une série de redi­rec­tions entre l’URL ini­tiale et celle de destination.

    Vous pou­vez trou­ver les chaînes de redi­rec­tion de votre site très rapi­de­ment grâce au rap­port de redi­rec­tion de l’Audit de Site. C’est gra­tu­it avec les Out­ils de web­mas­ter Ahrefs.


    Ces out­ils vont pou­voir vous aider à amélior­er les aspects tech­niques de votre site.

    Google Search Console

    La Google Search Con­sole (qui s’appelait Google Web­mas­ter Tools aupar­a­vant) est un ser­vice gra­tu­it de Google qui va vous aider à suiv­re et cor­riger l’apparence de votre site dans les résul­tats de recherche.

    Utilisez-la pour dénich­er et cor­riger les prob­lèmes tech­niques, soumet­tre des sitemaps, voir les prob­lèmes de don­nées struc­turées et bien plus encore.

    Bing et Yan­dex dis­posent de leurs pro­pres ver­sions de cet out­il, tout comme Ahrefs. Les Out­ils de Web­mas­ter de Ahrefs sont gra­tu­its et vous aideront à amélior­er les per­for­mances SEO de votre site. Ils vous per­me­t­tent de :

    • Suiv­re la san­té SEO de votre site
    • Suiv­re plus de 100 prob­lèmes fréquents en SEO
    • Voir vos backlinks
    • Voir les mots-clés sur lesquels vous êtes positionné
    • Déter­min­er le traf­ic que reçoivent vos pages
    • Trou­ver des oppor­tu­nités de lien interne

    Mobile-Friendly Test de Google

    Le Mobile Friend­ly Test de Google véri­fie si un util­isa­teur de mobile aura une bonne expéri­ence sur votre site. Il va égale­ment iden­ti­fi­er les prob­lèmes poten­tiels : texte trop petit pour la lec­ture, élé­ments cli­quables trop proches, plu­g­ins incom­pat­i­bles, etc.

    Ce test de com­pat­i­bil­ité mobile mon­tre ce que Google voit lorsqu’il explore la page. Vous pou­vez aus­si utilis­er le Rich Results Test pour voir le con­tenu comme Google le perçoit sur mobile comme sur ordinateur.

    DevTools de Chrome 

    Le Chrome Dev­Tools est un out­il directe­ment inclus dans le nav­i­ga­teur qui sert à détecter et cor­riger les bugs. Utilisez-le pour en appren­dre plus sur vos prob­lèmes de vitesse, charge­ment, amélior­er la per­for­mance de votre page et bien plus encore.

    En ter­mes de SEO tech­nique, il est extrême­ment utile.

    Barre d’outils Ahrefs

    La barre d’outils SEO Ahrefs est une exten­sion gra­tu­ite pour Chrome et Fire­fox qui vous four­nit des don­nées SEO utiles sur les pages et sites que vous visitez.

    Dans sa ver­sion gra­tu­ite, vous aurez :

    • Rap­port de SEO on-page
    • Tests de redi­rec­tion avec les head­ers HTTP
    • Vérifi­ca­teur de liens morts
    • Surligne­ment de liens
    • Posi­tion dans le SERP (page de résul­tats de recherche)

    En plus de cela, si vous êtes un client Ahrefs, vous aurez aus­si accès à :

    • Mesures SEO pour tous les sites ou pages que vous vis­itez et les résul­tats de recherche Google.
    • Don­nées de mots-clés, comme le vol­ume de recherche et la dif­fi­culté de mot-clé directe­ment dans le SERP
    • Export du SERP

    PageSpeed Insights

    L’outil Page­Speed Insight analyse la vitesse de charge­ment des pages web. En plus des scores de per­for­mance, vous obtien­drez un grand nom­bre de recom­man­da­tions pour vous aider à opti­miser le temps de chargement.

    Pour conclure

    Nous n’avons fait qu’effleurer la sur­face de ce qu’est le SEO tech­nique. Mais cela devrait vous aider à com­pren­dre les bases, avec des liens vers d’autres guides pour aller plus loin. Il y a beau­coup d’autres sujets que nous n’avons pas cou­verts dans ce guide, je vous ai donc com­pilé une autre liste si vous voulez en appren­dre plus.

    Élé­ments spécifiques

    Lié à l’Infrastructure

    Lié au site

    Proces­sus

    Divers

    Bonne explo­ration et appren­tis­sage ! Écrivez-moi sur Twit­ter si vous avez des questions.