
Nach Autor Ryan Law
Director of Content Marketing, Ahrefs
Was passiert eigentlich, wenn du ChatGPT bittest, dir die besten Over-Ear-Kopfhörer fürs Training zu empfehlen?
Wie generieren KI-Suchmaschinen ihre Antworten und wählen ihre Produktempfehlungen aus? Worin unterscheiden sie sich von traditionellen Suchmaschinen wie Google (und wo überschneiden sie sich)?
Und vor allem: Wie können Sie dafür sorgen, dass Ihre Website, Marke und Produkte angezeigt werden?
Vielen Dank an Gianluca Fiorelli und Mark Williams-Cook für das Korrekturlesen und ihre Beiträge zu diesem Kapitel.
KI-Suchmaschinen sind Frage-Antwort-Systeme, die Large Language Models (LLMs) nutzen, um Informationen zu finden und Antworten zu generieren.
Es gibt einige wesentliche Unterschiede zwischen traditionellen Suchmaschinen und KI-Suchmaschinen (auch wenn diese Unterschiede kleiner werden, da traditionelle Suchmaschinen immer mehr KI-Funktionen integrieren):
So sieht eine typische KI-Suchoberfläche aus – ähnlich dem, was du in ChatGPT, Claude oder dem KI-Modus sehen würdest:

Damit du in solchen Antworten auftauchst, musst du zuerst die Kernprozesse verstehen, durch die KI-Suchmaschinen funktionieren.
LLMs werden mit riesigen Mengen an Content trainiert. Sie haben praktisch „alles gelesen“: die komplette Wikipedia, das gesamte Common-Crawl-Dataset, alle Google Books und viele Millionen und Abermillionen Seiten mit Web-Content.
Diese Trainingsdaten helfen dem LLM dabei, sein "Verständnis" der Welt zu entwickeln. Wenn dein Kopfhörerunternehmen in seinen Trainingsdaten häufig vorkommt – in relevanten Kontexten und zusammen mit positiven Beschreibungen ("bestes Preis-Leistungs-Verhältnis", "ideal fürs Fitnessstudio" usw.) –, ist die Wahrscheinlichkeit hoch, dass dein Unternehmen in den Antworten des LLMs auf kopfhörerbezogene Prompts erwähnt wird.
Wusstest du schon?
Dieser Trainingsprozess ist komplexer, als hier dargestellt. Es gibt Pre-Training-Phasen, um HTML zu entfernen, personenbezogene Daten zu löschen, Blocklist-Wörter auszuschließen und die Daten auf bestimmte Sprachen zu filtern. Außerdem gibt es Post-Training-Phasen, um das Sprachmodell so zu trainieren, dass es sich eher wie ein hilfreicher Chat-Assistent verhält (und nicht nur wie ein Next-Token-Predictor). Wenn du mehr erfahren möchtest, sieh dir Andrej Karpathys Video Deep Dive into LLMs like ChatGPT an.

Hier wird entitätsbasiertes SEO entscheidend. Wenn deine Marke in Knowledge Graphs konsistent erscheint, mit Schema-Markup korrekt strukturiert ist und in hochwertigen Inhalten im Web gemeinsam mit relevanten Entitäten vorkommt, baust du ein stärkeres „Entitätssignal“ in Trainingsdaten auf.

Gianluca Fiorelli, Strategischer SEO-/KI-Suche-Consultant (international)
Entscheidend ist, dass LLMs viele Eigenheiten haben:
Ein verbreitetes Missverständnis ist, dass LLMs „Wissensaktualisierungen

Gianluca Fiorelli, Strategischer SEO-/KI-Suche-Consultant (international)
Eine Suchmaschine, die halluziniert und alte Informationen teilt, klingt nicht besonders nützlich. Deshalb überwinden LLMs einige dieser Einschränkungen durch einen Prozess, der als Grounding bekannt ist.
LLMs können ihre Antworten auf zwei Arten überprüfen und verbessern: mithilfe von Tools (wie Taschenrechnern oder anderen Daten-APIs) oder durch das Abrufen zusätzlicher Informationen aus externen Quellen. Dieser zweite Prozess wird technisch als Retrieval-Augmented Generation (RAG) bezeichnet.
Wenn ein Nutzer eine Frage eingibt, fragt sich das LLM: „Kenne ich die Antwort bereits, oder sollte ich zusätzliche Informationen abrufen?“ Wenn das LLM das nächste Token mit hoher Sicherheit vorhersagen kann (zum Beispiel bei Fragen, die sich kaum verändern, wie „Was machen rote Blutkörperchen?“), antwortet es wahrscheinlich aus seinem Basiswissen heraus. Bei niedriger Sicherheit (bei Fragen, die sich eher ändern können, wie „Was ist die beste günstige Kaffeemühle?“) kann es sein Such-Tool nutzen, um relevante Informationen aus anderen Quellen im Internet zu finden.
Die LLMs sind feinabgestimmt, um Query-Typen zu erkennen, die von zusätzlichen Informationen profitieren könnten, wie zum Beispiel:
Einige LLM-Modelle lösen außerdem mit hoher Wahrscheinlichkeit zusätzliche Suchen aus (zum Beispiel sind "Deep-Research"-Modelle speziell so konfiguriert, dass sie mehrere RAG-Suchen auslösen).

Dieser Prozess, Ground Truth über RAG zu finden (oft auch „Grounding“ genannt), bietet mehrere Vorteile. Das LLM kann die faktische Genauigkeit verbessern und Halluzinationen reduzieren, indem es seine Antworten mit Drittquellen abgleicht. Es kann aktuelle Informationen abrufen und teilen – selbst wenn seine Trainingsdaten bereits relativ veraltet sind. Es kann detailliertere, umfassendere Antworten liefern und für alles, was es teilt, bessere Transparenz und klare Quellenangaben bieten.
KI-Suchmaschinen führen dieses Grounding über einen Prozess durch, der als Query-Fan-out bekannt ist.
Entscheidend ist: Query-Fan-out erklärt, warum klassische SEO für KI-Sichtbarkeit so wichtig ist.
KI-Assistenten wie ChatGPT, Gemini und Perplexity nutzen Suchindizes wie Google, Bing und Brave, um aktuelle Informationen abzurufen.
Der Suchanbieter spielt eine Rolle, da jeder unterschiedliche Ranking-Algorithmen, Indizes und Abdeckung hat: Deine Marke in der Google-Suche sichtbar zu machen, kann deine Sichtbarkeit im KI-Modus stärker steigern als bei ChatGPT, das deutlich stärker von Bing abhängt.
| KI-Suchmaschine | Für Grounding verwendete Suchindizes |
|---|---|
Wenn eine Websuche ausgelöst wird, fordert das LLM relevante Ergebnisse aus seinem Suchindex an. Der Suchindex gibt eine Ergebnisliste zurück, und das LLM wählt die relevantesten Seiten zum Crawlen aus, indem es Informationen wie den Seitentitel, den Inhalt des zurückgegebenen Seitenausschnitts (Snippet) und die Aktualität (wie kürzlich er veröffentlicht wurde) bewertet.
Warum SEO für die KI-Suche entscheidend ist
Das verdient es, wiederholt zu werden: Traditionelle Suchmaschinen wie Google und Bing spielen eine entscheidende Rolle dabei, KI-Suchmaschinen zu helfen zu entscheiden, welche Inhalte sie in ihren Antworten erwähnen und zitieren.
Anders gesagt: Eine gute Platzierung in der traditionellen Suche verbessert deine Sichtbarkeit in der KI-Suche.
Aber wonach genau sucht das LLM?
LLMs verwenden einen Prozess namens Query-Fan-out. Viele Prompts, die in ChatGPT und andere KI-Suchmaschinen eingegeben werden, sind extrem lang, konversationell und oft völlig einzigartig. Diese exakten Prompts zu googeln, liefert nicht immer nützliche Inhalte.
Anstatt also eine Websuche mit der exakten Suchanfrage der Nutzerin bzw. des Nutzers auszuführen …
„Ich plane eine 6-monatige Content-Strategie für ein mittelständisches B2B-SaaS-Unternehmen, das ein Analytics-Produkt an E-Commerce-Marken verkauft. Das Unternehmen …“

…LLMs verwenden diesen initialen Prompt, um eine Reihe kürzerer, verwandter Suchanfragen zu generieren, die dabei helfen, relevante Informationen abzurufen.
Diese Fan-out-Abfragen werden ebenfalls vom Large Language Model generiert und sind daher nicht deterministisch: Sie können sich regelmäßig ändern – sogar bei derselben Suche.

Mark Williams-Cook, Gründer, AlsoAsked
Dieser Prozess dürfte SEOs vertraut vorkommen: Diese verwandten Suchanfragen ähneln stark Long-Tail-Keywords, Sub-Intents und „Nutzer fragten auch“-Fragen:
Tatsächlich tauchen nur 12% der von ChatGPT, Gemini und Copilot zitierten Links in den Top-10-Ergebnissen von Google für den ursprünglichen Nutzer-Prompt auf. Das bedeutet jedoch nicht, dass klassisches Ranking irrelevant ist. KI-Suchmaschinen rufen Inhalte ab, indem sie mehrere Suchanfragen generieren – und diese Fan-out-Queries sind oft traditionellere, keyword-fokussierte Suchen, bei denen deine bestehende SEO-Arbeit enorm wichtig ist.

Query-Fan-out ist befreiend: Du musst nicht raten, welche konversationellen Prompts Menschen verwenden werden. Optimiere stattdessen für die zerlegten Queries – also die semantischen Komponenten, die LLMs ganz natürlich generieren. Das sieht erstaunlich nach klassischer Keyword-Recherche aus: [topic] + [qualifier], Vergleichs-Queries, Definitions-Queries und „Best Practices“-Content. Deine bestehende SEO-Recherche deckt den Fan-out-Bereich wahrscheinlich bereits ab.

Gianluca Fiorelli, Strategischer SEO-/KI-Suche-Consultant (international)
Sobald ein LLM relevante Seiten aus einem Suchindex abruft, liest es sie nicht vollständig. Stattdessen werden Seiten in kleine Text-„Chunks“ aufgeteilt, wobei das Modell die Textabschnitte priorisiert (und manchmal erweitert), die für die Anfrage am relevantesten wirken.
Diese Chunks umfassen typischerweise jeweils einige Hundert bis einige Tausend Wörter – ein kleiner Bruchteil der meisten Webseiten. Das LLM unterliegt außerdem strengen Grenzen des Kontextfensters: Es kann nur eine begrenzte Menge Text verarbeiten, einschließlich des Prompts des Nutzers, aller abgerufenen Chunks und seiner eigenen Antwort. Das bedeutet, es muss sehr selektiv sein, welche Inhalte es abruft und einbezieht.
Hier ist ein Beispiel:
| Inhalt der gesamten Seite | <em>„Grounding ist ein Workflow, bei dem das Modell externe Quellen abruft, relevante Fakten extrahiert und diese Auszüge nutzt, um Halluzinationen zu reduzieren und die Aktualität zu erhöhen.… Anschließend durchsucht es mehrere Quellen, vergleicht Informationen und synthetisiert eine Antwort, statt Text wortwörtlich zu kopieren. Dieser Syntheseschritt hilft, eine zu starke Abhängigkeit von einer einzelnen Quelle zu vermeiden. |
| Snippet | "Erklärt, wie Assistenten die Websuche nutzen, um externe Quellen abzurufen und Halluzinationen zu reduzieren, indem Antworten auf abgerufene Fakten gestützt werden." |
| Erweiterung (Zeilen 1–2) | <em>„Grounding ist ein Workflow, bei dem das Modell externe Quellen abruft, relevante Fakten extrahiert und diese Auszüge nutzt, um Halluzinationen zu reduzieren und die Aktualität zu erhöhen. Bevor es eine Websuche startet, bewertet das Modell, ob eine Suchanfrage aktuelle oder verifizierbare Informationen erfordert. |
| Erweiterung (Zeilen 33–34) | <em>„Anschließend durchsucht es mehrere Quellen, vergleicht Informationen und synthetisiert eine Antwort, statt Text wortwörtlich zu kopieren. Dieser Syntheseschritt hilft, eine zu starke Abhängigkeit von einer einzelnen Quelle zu vermeiden. |
Machen Sie es LLMs leicht, Ihre Inhalte zu verstehen
Das ist wichtig: Wenn KI-Suchmaschinen Ihre Inhalte aus dem Internet abrufen, können sie nur teilweise Auszüge sehen – nicht die gesamte Seite. Um die Wahrscheinlichkeit zu maximieren, in der Antwort des LLM zitiert zu werden, müssen Relevanz und Mehrwert Ihrer Seite für LLMs leicht erkennbar sein, selbst ohne Zugriff auf die ganze Seite.
Die KI-Suchmaschine integriert diesen Text dann in ihren Prozess der Antwortgenerierung.
Der rohe Webinhalt wird in die Antwort des Modells eingebettet (Grounding): Die im vorherigen Schritt extrahierten Text- oder Datenausschnitte werden dem Kontext des Modells hinzugefügt – im Grunde nach dem Motto: "Hier ist etwas Kontext aus dem Web, der nützlich sein könnte; beantworte nun die Frage des Nutzers mit diesen Informationen."
Von dort aus generiert das Modell eine Antwort, indem es sein angeborenes Wissen mit abgerufenen Inhalten kombiniert, und teilt sie mit dem Nutzer. Die Antwort enthält in der Regel Quellenangaben: anklickbare URLs, die zu den Quellen verlinken, die während des Grounding-Prozesses verwendet wurden.
Nicht jede Seite, die die KI-Suchmaschine abruft, erhält in der finalen Antwort eine Quellenangabe. Das Modell wählt anhand mehrerer Faktoren aus, welche Quellen zitiert werden:
Das bedeutet: Selbst wenn Ihre Inhalte abgerufen und gelesen werden, gibt es keine Garantie für ein sichtbares Zitat; der Inhalt muss als direkt relevant für eine konkrete Aussage in der Antwort eingestuft werden.
Das ist der Kern der Funktionsweise von KI-Suchmaschinen – aber es gibt noch eine zusätzliche Komplexitätsebene: Personalisierung.
ChatGPT und andere KI-Suchmaschinen können ihre Ergebnisse für einzelne Nutzerinnen und Nutzer personalisieren – das heißt, derselbe Prompt kann für unterschiedliche Personen unterschiedliche Ergebnisse erzeugen. Personalisierung kann auf mehrere Arten beeinflusst werden, unter anderem durch:
Hier ist eine Analogie, um System-Prompts zu verstehen. Wenn du Fußball spielst, sind die „Trainingsdaten

Mark Williams-Cook, Gründer, AlsoAsked

Deshalb ist es sinnvoll, die durchschnittliche Sichtbarkeit deiner Marke und Website im Laufe der Zeit und über viele Prompts hinweg zu verfolgen, statt sich an der Antwort auf einen einzelnen Prompt festzubeißen.
Jede KI-Suchmaschine (von ChatGPT über Perplexity bis hin zum Google AI Mode) ist etwas anders, aber die Kernprozesse bleiben gleich. Wichtig für SEOs und Marketer: Traditionelle Suchmaschinen wie Google und Bing stellen einen großen Teil der Infrastruktur bereit, die KI-Suchmaschinen zum Funktionieren benötigen. Die Optimierung für KI-Suche hängt stark von traditionellen SEO-Best Practices ab.

Ryan Law ist der Director of Content Marketing bei Ahrefs. Ryan verfügt über 13 Jahre Erfahrung als Autor, Content-Stratege, Teamleiter, Marketingleiter, Vizepräsident, CMO und Gründer einer Agentur. Er hat Dutzenden von Unternehmen dabei geholfen, ihr Content-Marketing und ihre SEO zu verbessern, darunter Google, Zapier, GoDaddy, Clearbit und Algolia. Außerdem ist er Romanautor und der Ersteller von zwei Content-Marketing-Kursen.
Wenn du SEO lernen willst, solltest du verstehen, wie Suchmaschinen funktionieren.
Erfahre, wie du deine Website fit für die Suchmaschinenoptimierung machst, und mache dich mit den vier Grundpfeilern jeder SEO-Strategie vertraut.
Der Ausgangspunkt bei der SEO ist es, zu verstehen, wonach deine Zielkunden suchen.
Lerne, wie du Content erstellst, der gut in Suchmaschinen rankt.
Dabei optimierst du deine Seiten, damit Suchmaschinen sie besser verstehen.
Über Links entdecken Suchmaschinen weitere Seiten und schätzen deren „Autorität“ ein. Es ist schwierig, ohne Links für hart umkämpfte Suchbegriffe zu ranken.
Es ist wichtig sicherzustellen, dass du keine technischen Fehler begehst, die Google vom Zugriff oder Verstehen deiner Website abhalten könnten.
Erfahre, wie du deine Sichtbarkeit in lokalen Suchergebnissen verbessern und mehr Kunden aus deiner Umgebung gewinnen kannst.
Über SEO heute zu sprechen geht nicht ohne Erwähnung von generativer KI.
Lerne genau, wie KI-Suchmaschinen wie ChatGPT ihre Antworten generieren und auswählen, welche Marken und Produkte sie erwähnen.