Come funzionano i motori di ricerca IA

Ritratto di Ryan Law

di Ryan Law

Direttore di Content Marketing, Ahrefs

Quando chiedi a ChatGPT di consigliarti le migliori cuffie over-ear per allenarti, cosa succede davvero?

In che modo i motori di ricerca IA generano le loro risposte e scelgono i consigli sui prodotti? In cosa sono diversi dai motori di ricerca tradizionali come Google (e dove invece si sovrappongono)?

E, cosa fondamentale, come puoi far sì che il tuo sito web, il tuo brand e i tuoi prodotti compaiano?

Grazie a Gianluca Fiorelli e Mark Williams-Cook per aver revisionato e contribuito a questo capitolo.


Parte 1

Cosa sono i motori di ricerca IA?

I motori di ricerca IA sono sistemi di domanda e risposta che usano modelli linguistici di grandi dimensioni (LLM) per trovare informazioni e generare risposte.

Ci sono alcune differenze chiave tra i motori di ricerca tradizionali e i motori di ricerca IA (anche se queste differenze si stanno riducendo man mano che i motori di ricerca tradizionali incorporano più funzionalità di IA):

  • Invece di inserire query una tantum, gli utenti possono fare domande di follow-up e mantenere viva la conversazione.
  • Invece di restituire un elenco di link in ordine di rilevanza, i motori di ricerca basati sull’IA forniscono risposte e consigli diretti (e queste risposte possono cambiare regolarmente).
  • Invece di indirizzare chi effettua ricerche al tuo sito web, gli utenti trovano le loro domande con risposta direttamente nell'interfaccia della chat (con il risultato di meno clic verso il tuo sito web).

Ecco com’è un’interfaccia di ricerca con IA tipica, simile a quella che vedresti in ChatGPT, Claude o AI Mode:

Diagramma di un’interfaccia di ricerca basata sull’IA che mostra prompt, messaggio di grounding, risposta, menzione e citazioni
  • Prompt conversazionale: la domanda dell’utente.
  • Messaggio di grounding: Un messaggio che indica che l’LLM ha deciso di cercare informazioni aggiuntive da usare nella sua risposta.
  • Risposta: la risposta generata dall’IA al prompt dell’utente.
  • Menzione: un’entità (come il tuo brand o prodotto) citata nel testo della risposta.
  • Citazioni: URL delle fonti utilizzate per generare la risposta, in genere elencati alla fine.

Per aiutarti a comparire in risposte come queste, devi prima capire i processi fondamentali che fanno funzionare i motori di ricerca IA.


Parte 2

Come funziona l’addestramento

Gli LLM vengono addestrati su enormi quantità di contenuti. Di fatto hanno "letto" tutta Wikipedia, l'intero dataset Common Crawl, tutti i Google Books e decine di milioni di pagine di contenuti web.

Questi dati di addestramento aiutano a fornire all’LLM la sua “comprensione” del mondo. Se la tua azienda di cuffie compare molte volte nei suoi dati di addestramento, in contesti pertinenti e insieme a descrittori positivi (“miglior rapporto qualità-prezzo”, “ottime per la palestra” e così via), ci sono buone probabilità che la tua azienda venga menzionata nelle risposte dell’LLM a prompt legati alle cuffie.

Lo sapevi?

Questo processo di addestramento è più articolato di quanto spiegato qui. Ci sono fasi di pre-training per eliminare l’HTML, rimuovere le informazioni che permettono di identificare una persona, escludere parole presenti in blocklist e filtrare i dati per determinate lingue. Ci sono anche fasi di post-training per addestrare il modello linguistico a comportarsi più come un assistente di chat utile (e non solo come un predittore del token successivo). Per saperne di più, guarda il video di Andrej Karpathy, Deep Dive into LLMs like ChatGPT.

Diagramma che illustra come i modelli linguistici di grandi dimensioni vengono addestrati su contenuti su scala web
Virgolette

È qui che la SEO basata sulle entità diventa cruciale. Se il tuo brand compare con coerenza nei Knowledge Graph, è strutturato correttamente con markup Schema e co-occorre con entità pertinenti in contenuti di alta qualità in tutto il web, stai costruendo un “segnale di entità” più forte nei dati di addestramento.

Gianluca Fiorelli portrait

Gianluca Fiorelli, Consulente strategico e internazionale di SEO/Ricerca IA

È fondamentale ricordare che gli LLM hanno molte particolarità:

  • Sono probabilistici: puoi usare lo stesso prompt e ottenere risposte diverse ogni volta. Questa natura probabilistica significa che non puoi "ottimizzare per un prompt" come fai per una parola chiave. Piuttosto, pensa in termini di distribuzioni: qual è la probabilità che il tuo brand compaia su 100 prompt simili? Ecco perché monitorare la visibilità media su molti prompt è meglio che fissarsi su una manciata di prompt.
  • La loro conoscenza ha una data di cut-off: per impostazione predefinita, la conoscenza di un LLM è limitata a ciò che era contenuto nel dataset al momento dell’addestramento di quello specifico modello. Ogni modello viene addestrato una sola volta su un’istantanea dei dati fino a una certa data. Periodicamente vengono rilasciati nuovi modelli con cut-off della conoscenza più recenti (storicamente circa ogni sei mesi).
  • Allucinano: possono affermare con sicurezza cose non vere. Gli LLM generano testo prevedendo quali parole è probabile che vengano dopo, non verificando i fatti. Anche se sono addestrati per essere utili e accurati, non hanno un meccanismo interno di fact-checking: ecco perché il grounding tramite ricerca sul web è così importante.
Virgolette

Un equivoco comune è che gli LLM ricevano "aggiornamenti di conoscenza" come le patch software. In realtà, ogni modello viene addestrato una sola volta su un dataset fisso. Quando viene rilasciato un nuovo modello con un limite di conoscenze più recente, si tratta di un modello completamente nuovo addestrato da zero, non di un aggiornamento di quello esistente.

Gianluca Fiorelli portrait

Gianluca Fiorelli, Consulente strategico e internazionale di SEO/Ricerca IA

Un motore di ricerca che allucina e condivide informazioni obsolete non sembra molto utile. Per questo motivo, gli LLM superano alcune di queste limitazioni tramite un processo noto come grounding.


Parte 3

Come funzionano grounding e RAG

Gli LLM possono verificare e migliorare le proprie risposte in due modi: usando strumenti (come calcolatrici o altre API di dati) oppure recuperando informazioni aggiuntive da fonti esterne. Questo secondo processo è noto, in termini tecnici, come Retrieval-Augmented Generation (RAG).

Quando un utente inserisce una domanda, l’LLM si chiede: «Conosco già la risposta o dovrei recuperare informazioni aggiuntive?». Se l’LLM è in grado di prevedere il prossimo token con un’elevata certezza (per esempio, domande che cambiano poco, come «cosa fanno i globuli rossi?»), probabilmente risponderà attingendo alle sue conoscenze di base. Con una bassa certezza (per domande più soggette a cambiare, come «qual è il miglior macinacaffè economico?»), può usare il suo strumento di ricerca per trovare informazioni pertinenti da altre fonti su internet.

Gli LLM sono ottimizzati per riconoscere i tipi di query che potrebbero beneficiare di informazioni aggiuntive, come:

  • Argomenti fuori dall’ambito di addestramento dei modelli: «Quali sono i fattori di ranking interni usati da Keywords Explorer di Ahrefs?»
  • Argomenti che richiedono informazioni fresche o sensibili al fattore tempo: “Qual è stato l’aggiornamento principale più recente di Google e quando è stato rilasciato?”
  • Argomenti che richiedono esplicitamente una ricerca sul web: «Cerca su internet le tattiche di link building più diffuse nel 2026.»
  • Prompt che richiedono fonti e prove: “Fornisci fonti che confermino che Google utilizza segnali di coinvolgimento degli utenti nel suo algoritmo.”

Alcuni modelli LLM hanno anche un'elevata probabilità di attivare ricerche aggiuntive (ad esempio, i modelli di "deep research" sono configurati appositamente per attivare più ricerche RAG).

Diagramma che mostra come funzionano il grounding e la Retrieval-Augmented Generation (RAG)

Questo processo di ricerca della “verità di riferimento” tramite RAG (spesso definito “grounding”) offre diversi vantaggi. L’LLM può migliorare l’accuratezza fattuale e ridurre le allucinazioni verificando le proprie risposte con fonti di terze parti. Può recuperare e condividere informazioni aggiornate, anche se i suoi dati di addestramento sono relativamente datati. Può fornire risposte più dettagliate e complete, e offrire maggiore trasparenza e attribuzione per tutto ciò che condivide.

I motori di ricerca IA eseguono questo grounding tramite un processo noto come query fan-out.


Parte 4

Come funziona il fan-out delle query

È importante notare che il fan-out delle query spiega perché la SEO tradizionale è fondamentale per la visibilità nell'IA.

Gli assistenti basati sull’IA come ChatGPT, Gemini e Perplexity usano indici di ricerca come Google, Bing e Brave per recuperare informazioni aggiornate.

Il provider di ricerca è importante perché ognuno ha algoritmi di ranking, indici e copertura diversi: rendere il tuo brand visibile su Google Search potrebbe aiutare la tua visibilità in AI Mode più che su ChatGPT, che dipende maggiormente da Bing.

motore di ricerca IAIndici di ricerca usati per il grounding
ChatGPT logoChatGPT
Bing, logoBing,
Google logoGoogle
Claude logoClaude
Brave logoBrave
Gemini logoGemini
Google logoGoogle
Copilot logoCopilot
Bing logoBing
Perplexity logoPerplexity
In-house logoIn-house
AI Mode logoAI Mode
Google logoGoogle
AI Overviews logoAI Overviews
Google logoGoogle

Quando viene attivata una ricerca web, l'LLM richiede risultati pertinenti dal suo indice di ricerca. L'indice di ricerca restituisce un elenco di risultati e l'LLM seleziona le pagine più pertinenti da scansionare valutando informazioni come il titolo della pagina, il contenuto dello snippet della pagina restituita e la sua freschezza (quanto recentemente è stata pubblicata).

Perché la SEO è cruciale per la ricerca con IA

Vale la pena ripeterlo: i motori di ricerca tradizionali come Google e Bing svolgono un ruolo cruciale nell’aiutare i motori di ricerca basati sull’IA a decidere quali contenuti menzionare e citare nelle loro risposte.

Detto in altro modo, posizionarsi in alto nella ricerca tradizionale migliorerà la tua visibilità nella ricerca basata sull’IA.

Ma cosa cerca esattamente l’LLM?

Gli LLM utilizzano un processo chiamato query fan-out. Molti prompt inseriti in ChatGPT e in altri motori di ricerca basati su IA sono estremamente lunghi, discorsivi e spesso del tutto unici. Cercare su Google questi prompt esatti non restituisce sempre contenuti utili.

Quindi, invece di eseguire una ricerca web con la query esatta dell’utente…

"Sto pianificando una strategia di contenuti di 6 mesi per un'azienda B2B SaaS di medie dimensioni che vende un prodotto di analytics a brand ecommerce. L'azienda..."

Mockup di un prompt utente lungo e dettagliato inserito in un’interfaccia chat di IA

…gli LLM usano quel prompt iniziale per generare una serie di query più brevi e correlate, utili a recuperare informazioni pertinenti.

Virgolette

Queste query di fan-out vengono anch'esse generate dal modello linguistico di grandi dimensioni e sono quindi non deterministiche: possono cambiare regolarmente, anche per la stessa ricerca.

Mark Williams-Cook portrait

Mark Williams-Cook, Fondatore, AlsoAsked

Questo processo dovrebbe risultare familiare ai professionisti SEO: queste query correlate sono molto simili a parole chiave long tail, sotto-intenti e domande di "Le persone hanno chiesto anche":

  • Framework comuni di strategia dei contenuti B2B SaaS
  • Esempi di contenuti TOFU vs BOFU per SaaS
  • Best practice per l’aggiornamento dei contenuti e i link interni
  • Metriche per la crescita delle demo guidata dai contenuti

Infatti, solo il 12% dei link citati da ChatGPT, Gemini e Copilot compare tra i primi 10 risultati di Google per il prompt originale dell’utente. Tuttavia, questo non significa che il ranking tradizionale sia irrilevante. I motori di ricerca IA recuperano contenuti generando più query di ricerca e quelle query di fan-out sono spesso ricerche più tradizionali, incentrate sulle parole chiave, in cui il tuo lavoro SEO esistente conta enormemente.

Diagramma che illustra come un motore di ricerca basato su IA “ramifica” un singolo prompt dell’utente in molte query correlate
Virgolette

Il fan-out delle query è liberatorio: non devi indovinare quali prompt conversazionali useranno le persone. Piuttosto, ottimizza per le query scomposte, ossia i componenti semantici che gli LLM genereranno naturalmente. Assomigliano moltissimo alla tradizionale ricerca di parole chiave: [argomento] + [qualificatore], query di confronto, query definitorie e contenuti sulle “best practice”. La tua ricerca SEO esistente probabilmente copre già lo spazio del fan-out.

Gianluca Fiorelli portrait

Gianluca Fiorelli, Consulente strategico e internazionale di SEO/Ricerca IA


Parte 5

Come funzionano recupero, chunking e sintesi della risposta

Una volta che un LLM recupera pagine pertinenti da un indice di ricerca, non le legge per intero. Le pagine vengono invece suddivise in piccoli "chunk" di testo, e il modello dà priorità (e talvolta amplia) alle sezioni di testo che sembrano più rilevanti per la query.

Questi blocchi sono in genere composti da poche centinaia a poche migliaia di parole ciascuno: una piccola frazione della maggior parte delle pagine web. L’LLM inoltre opera con rigidi limiti della finestra di contesto: può elaborare una quantità limitata di testo, inclusi il prompt dell’utente, tutti i blocchi recuperati e la propria risposta. Ciò significa che deve essere molto selettivo riguardo ai contenuti che recupera e include.

Ecco un esempio:

Contenuto della pagina intera«Il grounding è un flusso di lavoro in cui il modello recupera fonti esterne, estrae fatti rilevanti e usa tali estratti per ridurre le allucinazioni e aumentare l’aggiornamento delle informazioni.… Poi analizza più fonti, confronta le informazioni e sintetizza una risposta, invece di copiare il testo parola per parola. Questo passaggio di sintesi aiuta a evitare un’eccessiva dipendenza da una singola fonte.»
Snippet“Spiega come gli assistenti utilizzano la ricerca sul web per recuperare fonti esterne e ridurre le allucinazioni ancorando le risposte a fatti recuperati.”
Espansione (righe 1–2)«Il grounding è un flusso di lavoro in cui il modello recupera fonti esterne, estrae fatti rilevanti e usa tali estratti per ridurre le allucinazioni e aumentare l’aggiornamento delle informazioni. Il modello valuta se una query richiede informazioni aggiornate o verificabili prima di avviare una ricerca sul web.»
Espansione (righe 33–34)«Poi analizza più fonti, confronta le informazioni e sintetizza una risposta, invece di copiare il testo parola per parola. Questo passaggio di sintesi aiuta a evitare un’eccessiva dipendenza da una singola fonte.»

Rendi semplice per gli LLM capire i tuoi contenuti

È importante: quando i motori di ricerca IA recuperano i tuoi contenuti da internet, possono vedere solo estratti parziali e non l'intera pagina. Per massimizzare le probabilità di essere citati nella risposta dell'LLM, la pertinenza e il valore della tua pagina devono essere facilmente comprensibili dagli LLM, anche senza accesso all'intera pagina.

Il motore di ricerca basato su IA integra poi questo testo nel suo processo di generazione della risposta.

Il contenuto web grezzo viene ancorato nella risposta del modello: gli snippet di testo o i dati estratti nel passaggio precedente vengono aggiunti al contesto del modello, dicendo in sostanza: "Ecco un po' di contesto dal web che potrebbe essere utile, ora rispondi alla domanda dell'utente usando queste informazioni."


Parte 6

Come vengono scelte le citazioni

Da lì, il modello genera una risposta combinando la propria conoscenza innata con i contenuti recuperati e la condivide con l’utente. La risposta di solito include citazioni: URL cliccabili che rimandano alle fonti utilizzate durante il processo di grounding.

Non tutte le pagine recuperate dal motore di ricerca IA riceveranno una citazione nella risposta finale. Il modello seleziona quali fonti citare in base a diversi fattori:

  • Rilevanza: quanto direttamente i contenuti recuperati hanno contribuito a specifiche affermazioni nella risposta.
  • Attualità: quanto recente sembra essere la fonte.
  • Diversità: Quanto sono diverse le fonti delle citazioni (con i motori di ricerca IA che spesso preferiscono citare più fonti diverse, invece di citare ripetutamente la stessa).

Ciò significa che, anche se i tuoi contenuti vengono recuperati e letti, non c’è alcuna garanzia di ricevere una citazione visibile; i contenuti devono essere ritenuti direttamente pertinenti a un’affermazione specifica nella risposta.


Parte 7

Come funziona la personalizzazione

Questo è il cuore di come funzionano i motori di ricerca IA, ma c’è un ulteriore livello di complessità: la personalizzazione.

ChatGPT e altri motori di ricerca basati sull’IA possono personalizzare i risultati per i singoli utenti, il che significa che lo stesso prompt può generare risultati diversi per persone diverse. La personalizzazione può essere influenzata in diversi modi, tra cui:

  • Contesto attuale della conversazione: I messaggi precedenti nella stessa chat influenzeranno la risposta al prompt attuale. Se menzioni, ad esempio, che per te la "durata" è importante nell'attrezzatura da trekking, puoi aspettarti che ChatGPT includa questo criterio nella sua ricerca quando più avanti nella chat chiedi "consigli sugli zaini".
  • Memoria: molti LLM hanno una funzionalità di memoria che consente al sistema di conservare determinati fatti o preferenze tra una chat e l’altra. Ad esempio, con la memoria attivata, ChatGPT dedurrà e ricorderà i dettagli che hai condiviso (come il tuo nome o i tuoi interessi) e li includerà nelle conversazioni future per personalizzare le risposte.
  • Posizione, ora, data: molti motori di ricerca basati su IA possono dedurre informazioni su di te e personalizzare le risposte di conseguenza: dall’uso dell’indirizzo IP per una posizione approssimativa (per query come “brunch vicino a me”), fino a data e ora (“lista cose da mettere in valigia per il campeggio” potrebbe suggerire una tenda 4 stagioni in inverno e una tenda 3 stagioni in estate).
  • Prompt di sistema: eventuali preferenze specifiche condivise nel messaggio di sistema influenzeranno le tue conversazioni (aggiungere "ricorda che sono vegano" al prompt di sistema influenzerà le risposte a prompt come "idee per una colazione sana").
Virgolette

Ecco un’analogia per capire i prompt di sistema. Se stessi giocando a calcio, i “dati di addestramento” sarebbero tutta la pratica fatta negli anni, la memoria muscolare di lungo periodo. Il prompt di sistema è ciò che ti dice l’allenatore appena prima di scendere in campo. È la potente memoria a breve termine, quella che ha più probabilità di influenzare l’output.

Mark Williams-Cook portrait

Mark Williams-Cook, Fondatore, AlsoAsked

Diagramma dei segnali di personalizzazione che influenzano le risposte della ricerca IA

Per questo motivo, è una buona idea monitorare nel tempo la visibilità media del tuo brand e del tuo sito web su molti prompt, invece di fissarsi sulla risposta a un singolo prompt.


Considerazioni finali

Ogni motore di ricerca basato sull’IA (da ChatGPT a Perplexity fino a Google AI Mode) è leggermente diverso, ma i processi principali restano gli stessi. E, cosa importante per SEO e marketer, i motori di ricerca tradizionali come Google e Bing forniscono gran parte dell’infrastruttura necessaria affinché i motori di ricerca basati sull’IA funzionino. L’ottimizzazione per la ricerca basata sull’IA dipende in larga misura dalle best practice della SEO tradizionale.

Ritratto di Ryan Law
Guida diRyan Law

Ryan Law è il direttore di Content Marketing di Ahrefs. Ryan ha 13 anni di esperienza come autore, stratega di contenuti, responsabile di team, direttore del marketing, vicepresidente, CMO e fondatore di agenzie. Ha aiutato dozzine di aziende a migliorare il loro marketing dei contenuti e la SEO, tra cui Google, Zapier, GoDaddy, Clearbit e Algolia. È anche romanziere e autore di due corsi di content marketing.

Master SEO Step by Step

/01

Come funzionano i motori di ricerca

Prima di iniziare a imparare la SEO, è necessario capire come funzionano i motori di ricerca.

/02

Principi fondamentali della SEO

Scopri come preparare il tuo sito web per il successo SEO e affronta i quattro aspetti principali della SEO.

/03

Ricerca di parole chiave

Il punto di partenza nella SEO è capire cosa cercano i tuoi clienti di riferimento.

/04

Contenuti per la SEO

Scopri come creare contenuti che si posizionano bene nei motori di ricerca.

/05

SEO on page

È qui che ottimizzi le tue pagine per aiutare i motori di ricerca a comprenderle.

/06

Link building

I link sono lo strumento tramite cui i motori di ricerca scoprono nuove pagine e ne giudicano l'autorevolezza. Senza link, è difficile posizionarsi per i termini più ambiti.

/07

SEO tecnica

È importante assicurarsi che non ci siano errori tecnici che impediscono a Google di accedere al tuo sito web e di comprenderlo.

/08

SEO locale

Scopri come migliorare la tua visibilità nei risultati di ricerca locali e ottenere più clienti della tua zona.

/09

Cosa significa l'IA per la SEO

Non si può parlare di SEO oggi senza menzionare l'IA generativa.

/10

Come funzionano i motori di ricerca IA

Scopri esattamente come i motori di ricerca basati sull’IA come ChatGPT generano le loro risposte e scelgono quali brand e prodotti menzionare.