
Автор: Ryan Law
Директор із контент-маркетингу в Ahrefs
Що насправді відбувається, коли ви просите ChatGPT порекомендувати найкращі повнорозмірні навушники для тренувань?
Як пошукові системи ШІ генерують відповіді та обирають рекомендації продуктів? Чим вони відрізняються від традиційних пошукових систем на кшталт Google (і де вони перетинаються)?
І найголовніше: як допомогти вашому сайту, бренду й продуктам з’являтися у видачі?
Дякуємо Gianluca Fiorelli та Mark Williams-Cook за рецензування й внесок у цей розділ.
Пошукові системи на базі ШІ — це системи запитань і відповідей, які використовують великі мовні моделі (LLM) для пошуку інформації та генерування відповідей.
Є кілька ключових відмінностей між традиційними пошуковими системами та пошуковими системами на базі ШІ (хоча ці відмінності зменшуються, оскільки традиційні пошукові системи додають дедалі більше функцій ШІ):
Ось як виглядає типовий інтерфейс пошуку на базі ШІ — подібний до того, що ви побачили б у ChatGPT, Claude або AI Mode:

Щоб допомогти вам з’являтися в подібних відповідях, спершу потрібно зрозуміти ключові процеси, завдяки яким працюють пошукові системи на базі ШІ.
LLM навчають на величезних обсягах контенту. Фактично вони «прочитали» всю Вікіпедію, весь набір даних Common Crawl, усі Google Books і багато мільйонів та мільйонів сторінок вебконтенту.
Ці навчальні дані допомагають сформувати для LLM його «розуміння» світу. Якщо ваша компанія з виробництва навушників багато разів згадується в його навчальних даних — у релевантному контексті та поруч із позитивними характеристиками («найкраще співвідношення ціни й якості», «чудово для спортзалу» тощо) — є висока ймовірність, що вашу компанію згадуватимуть у відповідях LLM на запити, пов’язані з навушниками.
Чи знали ви?
Цей процес навчання складніший, ніж описано тут. Є етапи попереднього навчання, щоб прибрати HTML, видалити персональні дані, вилучити слова з блоклиста та відфільтрувати дані під конкретні мови. Є також етапи післянавчання, щоб навчити мовну модель поводитися більше як корисний чат-асистент (а не просто як прогнозувач наступного токена). Щоб дізнатися більше, подивіться відео Андрея Карпаті Deep Dive into LLMs like ChatGPT.

Саме тут SEO на основі сутностей стає критично важливим. Якщо ваш бренд стабільно з’являється в графах знань, правильно структурований за допомогою розмітки Schema та співзгадується з релевантними сутностями у високоякісному контенті по всьому інтернету, ви формуєте сильніший «сигнал сутності» в навчальних даних.

Gianluca Fiorelli, Консультант зі стратегічного та міжнародного SEO/пошуку на основі ШІ
Що важливо, LLM мають багато особливостей:
Поширена хибна думка — що LLM отримують «оновлення знань», як програмні патчі. Насправді кожну модель навчають один раз на фіксованому наборі даних. Коли ви бачите реліз нової моделі зі свіжішою датою зрізу знань, це повністю нова модель, навчена з нуля, а не оновлення наявної.

Gianluca Fiorelli, Консультант зі стратегічного та міжнародного SEO/пошуку на основі ШІ
Пошукова система, яка галюцинує й ділиться застарілою інформацією, навряд чи буде корисною. Саме тому LLM долають частину цих обмежень завдяки процесу, відомому як ґраундинг.
LLM можуть перевіряти й покращувати свої відповіді двома способами: за допомогою інструментів (як-от калькуляторів чи інших API даних) або шляхом отримання додаткової інформації із зовнішніх джерел. Другий процес технічно називається Retrieval-Augmented Generation (RAG).
Коли користувач вводить запитання, LLM запитує сама себе: «Чи я вже знаю відповідь, чи мені слід отримати додаткову інформацію?» Якщо LLM може з високою впевненістю передбачити наступний токен (наприклад, для запитань, що майже не змінюються, як-от «що роблять червоні кров’яні клітини?»), найімовірніше, вона відповість, спираючись на базові знання. За низької впевненості (для запитань, які частіше змінюються, як-от «яка найкраща бюджетна кавомолка?») вона може скористатися інструментом пошуку, щоб знайти релевантну інформацію в інших джерелах в інтернеті.
LLM донавчають так, щоб вони розпізнавали типи запитів, яким може знадобитися додаткова інформація, зокрема:
Деякі моделі LLM також із високою ймовірністю запускають додаткові пошуки (наприклад, моделі «глибинного дослідження» спеціально налаштовані на виконання кількох RAG-пошуків).

Цей процес пошуку «опорної істини» через RAG (його часто називають «grounding») дає кілька переваг. LLM може підвищити фактологічну точність і зменшити галюцинації, звіряючи свої відповіді зі сторонніми джерелами. Вона може знаходити й поширювати актуальну інформацію, навіть якщо її навчальні дані відносно застарілі. Вона може надавати детальніші, комплексніші відповіді та забезпечувати кращу прозорість і атрибуцію для всього, чим ділиться.
Пошукові системи ШІ виконують це заземлення за допомогою процесу, відомого як query fan-out.
Що важливо, розгалуження запиту пояснює, чому традиційне SEO є критично важливим для видимості в ШІ.
ШІ-асистенти на кшталт ChatGPT, Gemini та Perplexity використовують пошукові індекси, як-от Google, Bing і Brave, щоб отримувати актуальну інформацію.
Вибір пошукового провайдера має значення, адже в кожного з них різні алгоритми ранжування, індекси та охоплення: зробивши свій бренд помітнішим у Пошуку Google, ви, ймовірно, підвищите видимість і в режимі ШІ більше, ніж у ChatGPT, який значно більше покладається на Bing.
| пошукова система ШІ | Пошукові індекси, що використовуються для ґраундингу |
|---|---|
Коли запускається вебпошук, LLM запитує релевантні результати зі свого пошукового індексу. Пошуковий індекс повертає список результатів, а LLM обирає найрелевантніші сторінки для сканування, оцінюючи, зокрема, назву сторінки, вміст показаного фрагмента сторінки та її актуальність (наскільки нещодавно її опублікували).
Чому SEO є критично важливим для пошуку на базі ШІ
Це варто повторити: традиційні пошукові системи на кшталт Google і Bing відіграють ключову роль у тому, щоб допомагати пошуковим системам на основі ШІ вирішувати, який контент згадувати та на який посилатися у своїх відповідях.
Інакше кажучи, високі позиції в традиційному пошуку підвищать вашу видимість у пошуку на основі ШІ.
Але що саме шукає LLM?
LLM використовують процес, що називається розгалуженням запитів. Багато запитів, введених у ChatGPT та інші пошукові системи на базі ШІ, є надзвичайно довгими, розмовними й часто повністю унікальними. Пошук у Google за цими точними запитами не завжди повертає корисний контент.
Тож замість того, щоб виконувати вебпошук за точним запитом користувача…
"Я планую 6-місячну контент-стратегію для B2B SaaS-компанії середнього розміру, яка продає продукт аналітики брендам електронної комерції. Компанія…"

…LLM використовують цей початковий запит, щоб згенерувати серію коротших, пов’язаних запитів і таким чином допомогти отримати релевантну інформацію.
Ці розгалужені запити також генерує велика мовна модель, а отже вони недетерміновані: можуть регулярно змінюватися, навіть для одного й того самого пошуку.

Mark Williams-Cook, Засновник, AlsoAsked
Цей процес має бути знайомим фахівцям із SEO: ці пов’язані запити дуже схожі на довгі ключові слова, піднаміри та запитання з блоку People Also Ask:
Насправді лише 12% посилань, процитованих ChatGPT, Gemini та Copilot, входять до топ-10 результатів Google для початкового запиту користувача. Однак це не означає, що традиційне ранжування неважливе. Пошукові системи на базі ШІ знаходять контент, генеруючи кілька пошукових запитів — і ці розгалужені запити часто є більш традиційними, орієнтованими на ключові слова пошуками, де ваша наявна SEO-робота має величезне значення.

Розгалуження запиту звільняє від необхідності вгадувати, які розмовні запити люди використовуватимуть. Натомість оптимізуйтеся під декомпозовані запити — тобто семантичні компоненти, які LLM природно генеруватимуть. Це дуже схоже на традиційний аналіз ключових слів: [тема] + [уточнення], запити на порівняння, запити на визначення та контент із «найкращими практиками». Ваші наявні SEO-дослідження, ймовірно, вже охоплюють цей простір розгалуження.

Gianluca Fiorelli, Консультант зі стратегічного та міжнародного SEO/пошуку на основі ШІ
Коли LLM знаходить релевантні сторінки в пошуковому індексі, вона не читає їх повністю. Натомість сторінки розбиваються на невеликі текстові «чанки», а модель надає пріоритет (і інколи розширює) тим фрагментам, які здаються найбільш релевантними запиту.
Зазвичай кожен із цих фрагментів містить від кількох сотень до кількох тисяч слів — це невелика частка більшості вебсторінок. LLM також працює в межах суворих обмежень контекстного вікна: він може обробити лише обмежений обсяг тексту, зокрема запит користувача, усі отримані фрагменти та власну відповідь. Це означає, що він має дуже вибірково визначати, який контент отримувати й включати.
Ось приклад:
| Вміст повної сторінки | «Заземлення — це робочий процес, у якому модель звертається до зовнішніх джерел, витягує релевантні факти та використовує ці витяги, щоб зменшити галюцинації й підвищити актуальність.… Потім вона сканує кілька джерел, порівнює інформацію та синтезує відповідь замість того, щоб дослівно копіювати текст. Цей крок синтезу допомагає уникнути надмірної залежності від одного-єдиного джерела». |
| Сніпет | «Пояснює, як асистенти використовують вебпошук, щоб знаходити зовнішні джерела та зменшувати галюцинації, заземлюючи відповіді на отриманих фактах.» |
| Розгортання (рядки 1–2) | «Заземлення — це робочий процес, у якому модель звертається до зовнішніх джерел, витягує релевантні факти та використовує ці витяги, щоб зменшити галюцинації й підвищити актуальність. Перед тим як ініціювати вебпошук, модель оцінює, чи потребує запит актуальної або такої, що піддається перевірці, інформації». |
| Розгортання (рядки 33–34) | «Потім вона сканує кілька джерел, порівнює інформацію та синтезує відповідь замість того, щоб дослівно копіювати текст. Цей крок синтезу допомагає уникнути надмірної залежності від одного-єдиного джерела». |
Зробіть так, щоб LLM було легко зрозуміти ваш контент
Це важливо: коли пошукові системи ШІ отримують ваш контент з інтернету, вони можуть бачити лише часткові уривки, а не всю сторінку. Щоб максимізувати шанси бути процитованими у відповіді LLM, релевантність і цінність вашої сторінки мають бути легко зрозумілими для LLM навіть без доступу до всієї сторінки.
Потім пошукова система на базі ШІ інтегрує цей текст у процес формування відповіді.
Необроблений вебконтент ґраундується у відповідь моделі: фрагменти тексту або даних, витягнуті на попередньому кроці, додаються до контексту моделі — по суті, це означає: «Ось трохи контексту з вебу, що може бути корисним; тепер дай відповідь на запитання користувача, використовуючи цю інформацію».
Далі модель генерує відповідь, поєднуючи свої вбудовані знання з отриманим контентом, і ділиться нею з користувачем. Відповідь зазвичай містить цитування: клікабельні URL-адреси з посиланнями на джерела, використані під час процесу заземлення.
Не кожна сторінка, яку знаходить пошукова система на базі ШІ, отримає цитування у фінальній відповіді. Модель обирає, які джерела цитувати, зважаючи на кілька чинників:
Це означає, що навіть якщо ваш контент буде знайдено й прочитано, немає гарантії, що ви отримаєте видиме цитування; контент має бути визнаний безпосередньо релевантним до конкретного твердження у відповіді.
Це основа того, як працюють пошукові системи ШІ, але є додатковий рівень складності: персоналізація.
ChatGPT та інші пошукові системи на основі ШІ можуть персоналізувати результати для окремих користувачів — тобто один і той самий запит може згенерувати різні результати для різних людей. На персоналізацію можуть впливати кілька чинників, зокрема:
Ось аналогія, яка допоможе зрозуміти системні запити. Уявіть, що ви граєте у футбол: «навчальні дані» — це всі тренування протягом років, довготривала м’язова пам’ять. Системний запит — це те, що тренер каже вам просто перед виходом на поле. Це потужна короткострокова пам’ять, яка з більшою ймовірністю вплине на результат.

Mark Williams-Cook, Засновник, AlsoAsked

Тому варто відстежувати середню видимість вашого бренду та сайту з часом і в розрізі багатьох запитів, а не зациклюватися на відповіді на якийсь один запит.
Кожна пошукова система на основі ШІ (від ChatGPT до Perplexity і Google AI Mode) дещо відрізняється, але базові процеси залишаються однаковими. І що важливо для фахівців із SEO та маркетологів: традиційні пошукові системи на кшталт Google і Bing забезпечують значну частину інфраструктури, потрібної для роботи пошукових систем на основі ШІ. Оптимізація під пошук на основі ШІ значною мірою спирається на найкращі практики традиційного SEO.

Раян Лоу — директор із контент-маркетингу в Ahrefs із понад 13-річним досвідом роботи письменником, контент-стратегом, керівником команд, директором із маркетингу, віцепрезидентом, CMO та засновником агентства. Він допоміг десяткам компаній, серед яких Google, Zapier, GoDaddy, Clearbit та Algolia, покращити контент-маркетинг і SEO. Також він є письменником-романістом та автором двох курсів із контент-маркетингу.
Перш ніж почати вивчати SEO, потрібно зрозуміти, як працюють пошукові системи.
Дізнайтеся, як налаштувати свій вебсайт для успіху в SEO, і дізнайтеся про чотири основні аспекти SEO.
Відправною точкою в SEO є розуміння того, що шукають ваші цільові клієнти.
Дізнайтеся, як створити контент, який займає місце в пошукових системах.
Саме тут ви оптимізуєте список сторінок, що допоможуть пошуковим системам їх зрозуміти.
Посилання допомагають пошуковим системам знаходити нові сторінки й оцінювати їхню «авторитетність». Без посилань складно досягти високих позицій за конкурентними запитами.
Важливо переконатися, що немає технічних помилок, які заважають Google отримати доступ до вашого вебсайту та правильно розуміти його.
Дізнайтеся, як покращити свою видимість у локальних результатах пошуку й залучити більше клієнтів із вашого району.
Сьогодні неможливо говорити про SEO, не згадуючи генеративний ШІ.
Дізнайтеся, як саме пошукові системи на основі ШІ на кшталт ChatGPT генерують відповіді та обирають, які бренди й продукти згадувати.