
Par Ryan Law
Directeur du marketing de contenu chez Ahrefs
Que se passe-t-il réellement lorsque vous demandez à ChatGPT de recommander le meilleur casque circum-aural pour faire du sport ?
Comment les moteurs de recherche IA génèrent-ils leurs réponses et choisissent-ils leurs recommandations de produits ? En quoi diffèrent-ils des moteurs de recherche traditionnels comme Google (et sur quels points se recoupent-ils) ?
Et surtout, comment pouvez-vous aider votre site web, votre marque et vos produits à apparaître ?
Merci à Gianluca Fiorelli et Mark Williams-Cook d’avoir relu et contribué à ce chapitre.
Les moteurs de recherche IA sont des systèmes de questions-réponses qui utilisent de grands modèles de langage (LLM) pour trouver des informations et générer des réponses.
Il existe quelques différences clés entre les moteurs de recherche traditionnels et les moteurs de recherche IA (même si ces différences se réduisent à mesure que les moteurs de recherche traditionnels intègrent davantage de fonctionnalités d’IA) :
Voici à quoi ressemble une interface de recherche IA typique, similaire à ce que vous verriez dans ChatGPT, Claude ou AI Mode :

Pour vous aider à apparaître dans des réponses comme celles-ci, vous devez d’abord comprendre les processus fondamentaux qui font fonctionner les moteurs de recherche IA.
Les LLM sont entraînés sur d’énormes volumes de contenu. En pratique, ils ont « lu » l’intégralité de Wikipédia, l’ensemble du jeu de données Common Crawl, l’ensemble de Google Books, ainsi que des millions et des millions de pages de contenu web.
Ces données d’entraînement aident le LLM à se construire une « compréhension » du monde. Si votre entreprise de casques audio apparaît de nombreuses fois dans ses données d’entraînement, dans des contextes pertinents et aux côtés de qualificatifs positifs (« meilleur rapport qualité-prix », « parfait pour la salle de sport », etc.), il y a de fortes chances que votre entreprise soit mentionnée dans les réponses du LLM à des prompts liés aux casques audio.
Le saviez-vous ?
Ce processus d’entraînement est plus complexe que ce qui est décrit ici. Il existe des étapes de pré-entraînement pour supprimer le HTML, retirer les informations permettant d’identifier une personne, exclure des mots de listes de blocage et filtrer les données par langue. Il existe aussi des étapes de post-entraînement pour entraîner le modèle de langage à se comporter davantage comme un assistant de chat utile (et pas seulement comme un prédicteur du prochain jeton). Pour en savoir plus, regardez la vidéo d’Andrej Karpathy, Deep Dive into LLMs like ChatGPT.

C'est là que le SEO basé sur les entités devient crucial. Si votre marque apparaît de manière cohérente dans les Knowledge Graphs, est correctement structurée avec du balisage Schéma et co-apparaît avec des entités pertinentes dans des contenus de haute qualité sur le web, vous construisez un « signal d'entité » plus fort dans les données d'entraînement.

Gianluca Fiorelli, Consultant en SEO stratégique et international / Recherche IA
Point essentiel : les LLM ont de nombreuses bizarreries :
Une idée reçue courante est que les LLM reçoivent des « mises à jour de connaissances » comme des correctifs logiciels. En réalité, chaque modèle est entraîné une seule fois sur un jeu de données fixe. Quand vous voyez une nouvelle version de modèle avec une date de fin des connaissances plus récente, c’est un tout nouveau modèle entraîné à partir de zéro, et non une mise à jour du modèle existant.

Gianluca Fiorelli, Consultant en SEO stratégique et international / Recherche IA
Un moteur de recherche qui hallucine et partage des informations obsolètes ne semble pas très utile. C’est pourquoi les LLM surmontent certaines de ces limites grâce à un processus appelé ancrage.
Les LLM peuvent vérifier et améliorer leurs réponses de deux façons : en utilisant des outils (comme des calculatrices ou d’autres API de données), ou en récupérant des informations supplémentaires depuis des sources externes. Ce deuxième processus est techniquement appelé génération augmentée par récupération (RAG).
Lorsqu’un utilisateur pose une question, le LLM se demande : « Est-ce que je connais déjà la réponse, ou dois-je aller chercher des informations supplémentaires ? » Si le LLM peut prédire le prochain jeton avec une grande certitude (par exemple, des questions qui ne changent pas beaucoup, comme « à quoi servent les globules rouges ? »), il est probable qu’il réponde à partir de ses connaissances de base. Avec une faible certitude (pour des questions plus susceptibles d’évoluer, comme « quel est le meilleur moulin à café pas cher ? »), il peut utiliser son outil de recherche pour trouver des informations pertinentes issues d’autres sources sur Internet.
Les LLM sont affinés pour reconnaître des types de requêtes susceptibles de bénéficier d’informations supplémentaires, comme :
Certains modèles de LLM sont aussi très susceptibles de déclencher des recherches supplémentaires (par exemple, les modèles de « deep research » sont spécifiquement configurés pour déclencher plusieurs recherches RAG).

Ce processus, qui consiste à trouver une vérité terrain grâce au RAG (souvent appelé « grounding »), offre plusieurs avantages. Le LLM peut améliorer l'exactitude factuelle et réduire les hallucinations en vérifiant ses réponses auprès de sources tierces. Il peut récupérer et partager des informations à jour, même si ses données d'entraînement sont relativement obsolètes. Il peut fournir des réponses plus détaillées et complètes, et offrir une meilleure transparence et une attribution plus claire pour tout ce qu'il partage.
Les moteurs de recherche IA effectuent ce grounding via un processus appelé « query fan-out ».
Point crucial : le « fan-out » des requêtes explique pourquoi le SEO traditionnel est essentiel pour la visibilité dans les moteurs IA.
Les assistants IA comme ChatGPT, Gemini et Perplexity utilisent des index de recherche tels que Google, Bing et Brave pour récupérer des informations à jour.
Le fournisseur de recherche compte, car chacun a des algorithmes de classement, des index et une couverture différents : rendre votre marque visible dans la recherche Google peut améliorer votre visibilité en mode IA plus que dans ChatGPT, qui dépend davantage de Bing.
| Moteur de recherche IA | Index de recherche utilisés pour l’ancrage |
|---|---|
Lorsqu'une recherche sur le web est déclenchée, le LLM demande des résultats pertinents à son index de recherche. L'index de recherche renvoie une liste de résultats, et le LLM sélectionne les pages les plus pertinentes à explorer en évaluant des informations telles que le titre de la page, le contenu de l'extrait de page renvoyé et son actualité (sa date de publication récente).
Pourquoi le SEO est crucial pour la recherche IA
Cela mérite d’être répété : les moteurs de recherche traditionnels comme Google et Bing jouent un rôle crucial en aidant les moteurs de recherche IA à décider quels contenus mentionner et citer dans leurs réponses.
Autrement dit, un bon classement dans la recherche traditionnelle améliorera votre visibilité dans la recherche IA.
Mais que recherche exactement le LLM ?
Les LLM utilisent un processus appelé diffusion des requêtes. De nombreux prompts saisis dans ChatGPT et d’autres moteurs de recherche IA sont extrêmement longs, conversationnels et souvent totalement uniques. Faire une recherche Google avec ces prompts exacts ne renverra pas toujours de contenu utile.
Ainsi, au lieu d’effectuer une recherche sur le web avec la requête exacte de l’utilisateur…
« Je prépare une stratégie de contenu sur 6 mois pour une entreprise SaaS B2B de taille intermédiaire qui vend un produit d'analytique à des marques e-commerce. L'entreprise… »

…les LLM utilisent ce prompt initial pour générer une série de requêtes plus courtes et connexes afin d’aider à récupérer des informations pertinentes.
Ces requêtes « fan-out » sont également générées par le grand modèle de langage et sont donc non déterministes : elles peuvent changer régulièrement, même pour une même recherche.

Mark Williams-Cook, Fondateur, AlsoAsked
Ce processus devrait sembler familier aux SEO : ces requêtes associées ressemblent beaucoup aux mots-clés de longue traine, aux sous-intentions et aux questions « Autres questions posées » :
En réalité, seuls 12 % des liens cités par ChatGPT, Gemini et Copilot apparaissent dans le top 10 des résultats Google pour le prompt initial de l’utilisateur. Cela ne signifie toutefois pas que le classement traditionnel n’a plus d’importance. Les moteurs de recherche IA récupèrent du contenu en générant plusieurs requêtes de recherche — et ces requêtes « fan-out » sont souvent des recherches plus traditionnelles, axées sur les mots-clés, pour lesquelles votre travail SEO existant compte énormément.

Le « fan-out » des requêtes est libérateur : vous n'avez pas besoin de deviner quels prompts conversationnels les internautes vont utiliser. À la place, optimisez pour les requêtes décomposées, c'est-à-dire les composantes sémantiques que les LLM génèrent naturellement. Cela ressemble étonnamment à une recherche de mots-clés traditionnelle : [sujet] + [qualificatif], requêtes de comparaison, requêtes définitionnelles et contenus « bonnes pratiques ». Votre recherche SEO existante couvre très probablement déjà l'espace du fan-out.

Gianluca Fiorelli, Consultant en SEO stratégique et international / Recherche IA
Une fois qu'un LLM a récupéré des pages pertinentes depuis un index de recherche, il ne les lit pas intégralement. À la place, les pages sont découpées en petits « blocs » de texte (chunks), le modèle priorisant (et parfois développant) les sections qui semblent les plus pertinentes pour la requête.
Ces segments comptent généralement de quelques centaines à quelques milliers de mots chacun, soit une petite fraction de la plupart des pages web. Le LLM est aussi soumis à des limites strictes de fenêtre de contexte : il ne peut traiter qu’une quantité limitée de texte, y compris le prompt de l’utilisateur, tous les segments récupérés et sa propre réponse. Cela signifie qu’il doit être très sélectif quant au contenu qu’il récupère et inclut.
Voici un exemple :
| Contenu de la page entière | « Le grounding est un workflow dans lequel le modèle récupère des sources externes, en extrait des faits pertinents et utilise ces extraits pour réduire les hallucinations et améliorer la fraîcheur des informations.… Il analyse ensuite plusieurs sources, compare les informations et synthétise une réponse plutôt que de copier le texte mot pour mot. Cette étape de synthèse aide à éviter une dépendance excessive à une seule source. » |
| Extrait | « Explique comment les assistants utilisent la recherche sur le web pour récupérer des sources externes et réduire les hallucinations en ancrant les réponses dans des faits récupérés. » |
| Développement (lignes 1–2) | « Le grounding est un workflow dans lequel le modèle récupère des sources externes, en extrait des faits pertinents et utilise ces extraits pour réduire les hallucinations et améliorer la fraîcheur des informations. Le modèle évalue si une requête nécessite des informations à jour ou vérifiables avant de lancer une recherche sur le Web. » |
| Développement (lignes 33–34) | « Il analyse ensuite plusieurs sources, compare les informations et synthétise une réponse plutôt que de copier le texte mot pour mot. Cette étape de synthèse aide à éviter une dépendance excessive à une seule source. » |
Facilitez la compréhension de votre contenu par les LLM
C’est important : lorsque les moteurs de recherche IA récupèrent votre contenu sur Internet, ils ne peuvent voir que des extraits partiels, et non la page entière. Pour maximiser les chances d’être cité dans la réponse du LLM, la pertinence et la valeur de votre page doivent être faciles à comprendre pour les LLM, même sans accès à la page entière.
Le moteur de recherche IA intègre ensuite ce texte à son processus de génération de réponses.
Le contenu web brut est ancré dans la réponse du modèle : les extraits de texte ou de données obtenus à l’étape précédente sont ajoutés au contexte du modèle, ce qui revient à dire : « Voici un contexte issu du web qui pourrait être utile ; maintenant, réponds à la question de l’utilisateur en t’appuyant sur ces informations. »
À partir de là, le modèle génère une réponse en combinant ses connaissances intrinsèques avec le contenu récupéré, puis la partage avec l’utilisateur. La réponse inclut généralement des citations : des URL cliquables menant aux sources utilisées pendant le processus de grounding.
Toutes les pages récupérées par le moteur de recherche IA ne feront pas forcément l’objet d’une citation dans la réponse finale. Le modèle sélectionne les sources à citer en fonction de plusieurs facteurs :
Cela signifie que même si votre contenu est récupéré et lu, rien ne garantit l’obtention d’une citation visible ; le contenu doit être jugé directement pertinent pour étayer une affirmation précise dans la réponse.
C’est le cœur du fonctionnement des moteurs de recherche IA, mais il y a un niveau de complexité supplémentaire : la personnalisation.
ChatGPT et d'autres moteurs de recherche IA peuvent personnaliser leurs résultats pour chaque utilisateur : une même prompt peut donc générer des résultats différents selon les personnes. La personnalisation peut être influencée de plusieurs façons, notamment :
Voici une analogie pour comprendre les prompts système. Si vous jouez au football, les « données d'entraînement », c'est tout l'entraînement que vous avez accumulé au fil des années, la mémoire musculaire à long terme. La prompt système, c'est ce que votre entraîneur vous dit juste avant d'entrer sur le terrain. C'est une mémoire puissante à court terme, qui a le plus de chances d'influencer le résultat.

Mark Williams-Cook, Fondateur, AlsoAsked

C’est pourquoi il est préférable de suivre l’évolution de la visibilité moyenne de votre marque et de votre site web dans le temps et sur de nombreux prompts, plutôt que de se focaliser sur la réponse à un prompt unique.
Chaque moteur de recherche IA (de ChatGPT à Perplexity en passant par Google AI Mode) est légèrement différent, mais les processus de base restent les mêmes. Et, point important pour les SEO et les marketeurs, les moteurs de recherche traditionnels comme Google et Bing fournissent une grande partie de l’infrastructure nécessaire au fonctionnement des moteurs de recherche IA. L’optimisation pour la recherche IA dépend fortement des meilleures pratiques du SEO traditionnel.

Ryan Law est le directeur du marketing de contenu chez Ahrefs. Il a 13 ans d’expérience en tant que rédacteur, stratège de contenu, chef d’équipe, vice-président, directeur marketing et fondateur d’agence. Il a aidé des dizaines d’entreprises à améliorer leur marketing de contenu et leur SEO, notamment Google, Zapier, GoDaddy, Clearbit et Algolia. Il est aussi romancier et le créateur de deux cours sur le marketing de contenu.
Avant de commencer à apprendre le SEO, vous devez comprendre le fonctionnement des moteurs de recherche.
Apprenez à configurer votre site Web pour le succès du SEO et à vous familiariser avec les quatre principales facettes du SEO.
Le point de départ du SEO est de comprendre ce que recherchent vos clients cibles.
Apprenez à créer du contenu qui se classe dans les moteurs de recherche.
C'est là que vous optimisez vos pages pour aider les moteurs de recherche à les comprendre.
Les liens permettent aux moteurs de recherche de découvrir de nouvelles pages et d’évaluer leur « autorité ». Il est difficile de se positionner sur des mots-clés compétitifs sans liens.
Il est important de s’assurer qu’aucun faux pas technique n’empêche Google d’accéder à votre site Web et de le comprendre.
Découvrez comment améliorer votre visibilité dans les résultats de recherche locale et attirer plus de clients dans votre zone.
Vous ne pouvez pas parler de SEO aujourd’hui sans mentionner l’IA générative.
Découvrez précisément comment les moteurs de recherche IA comme ChatGPT génèrent leurs réponses et choisissent quelles marques et quels produits mentionner.