Фасетная навигация: определение, примеры и лучшие методы поисковой оптимизации

Sam Underwood
Сэм Андервуд — независимый консультант, помогающий предприятиям электронной коммерции увеличивать свой органический доход с помощью on-page SEO, технического SEO и контентных стратегий.
    Если вы работали с любыми сайтами, которые имеют дело с большим количеством списков, вы, вероятно, сталкивались с фасетной навигацией.

    Фасетная навигация — это широко распространенный UX-шаблон, который помогает пользователям быстрее находить то, что они ищут. Но проблема в том, что это сопряжено с множеством потенциальных проблем с SEO, эффект которых вам нужно будет смягчить.

    В этом руководстве вы узнаете:

    Фасетная навигация (или фасетный поиск) — это тип навигации, который можно найти на страницах категорий или архивных страницах сайтов, которые имеют дело с множеством списков. Ее задача — помочь пользователям легче находить то, что они ищут, с помощью нескольких фильтров, основанных на атрибутах списков.

    Многие люди называют фасетную навигацию просто “фильтрами”.

    Чаще всего этот тип навигации можно встретить на страницах категорий:

    • сайтов электронной торговли, таких как AO.com.
    • сайтов вакансий, таких как Total Jobs.
    • сайтов путешествий/бронирования, таких как Google Авиабилеты или Airbnb.

    Но она распространена и на многих других крупных веб-сайтах.

    Фасетная навигация работает путем фильтрации списков на страницах категорий по их атрибутам. Как уже упоминалось, списки часто относятся к таким категориям:

    • Вакансии
    • Продукты
    • Отели/рейсы

    Атрибуты различаются в зависимости от сайта, но распространенными примерами являются:

    • Цена
    • Цвет
    • Бренд
    • Вес
    • Время полета
    • Заработная плата
    • Количество в упаковке
    • Время доставки

    После того, как администраторы сайта присвоили спискам соответствующие атрибуты, сайт затем отображает эти атрибуты пользователю в списке:

    Поведение, выполняемое, когда пользователь выбирает фильтр, меняется, но обычно происходит одно из четырех. 

    1. Списки мгновенно обновляются, чтобы отразить выбор без перезагрузки страницы (с использованием JavaScript).
    2. Страница перезагружается, и списки отражаются с учетом сделанного выбора (без использования JavaScript).
    3. Когда пользователь выбирает элемент в списке, ничего не происходит, пока он затем не нажмет кнопку “Применить”, которая обновит списки, чтобы отразить сделанный выбор (опять же, с использованием JavaScript).
    4. Когда пользователь кликает, чтобы применить фильтры, загружается новая страница.

    Первые два варианта имеют похожий UX, но другой шаблон UX по сравнению с третьим вариантом. 

    Какой шаблон UX использовать зависит от того, будет ли пользователь использовать больше одного фильтра. Если пользователи склонны использовать несколько фильтров, имеет смысл применять фильтры и обновлять списки только после того, как они решат их применить.

    После применения фильтров URL-адрес можно также при желании обновить, чтобы отразить сделанный выбор. То, что происходит с URL-адресом на этом этапе, также может иметь несколько сценариев:

    1. Ничего не происходит. Списки обновляются без изменения URL-адреса.
    2. Сайт добавляет параметры к URL-адресу, например ‘?colour=blue&brand=samsung’.
    3. Сайт добавляет хэш к URL-адресу, который определяет примененные фасеты, например, #color=blue.
    4. Создается новый статический URL-адрес типа /jeans/blue/ (в этом примере пользователь отфильтровал синие джинсы).

    Типы проблем, которые необходимо предотвратить или исправить при использовании фасетной навигации, включают:

    • Дублированный контент
    • Раздутие индекса
    • Сканирование

    К сожалению, фасетная навигация потенциально создает почти бесконечное количество комбинаций фасетов и индексируемых URL-адресов. Если у вас возникнут проблемы с одним из них, влияние на SEO будет, как правило, высоким.

    Ниже приведены некоторые примеры того, как возникают эти проблемы, и как они влияют на SEO вашего сайта.

    Дублированный контент

    Дублированный контент — это один и тот же или очень похожий контент, доступный по нескольким URL-адресам. Общеизвестно, что фильтры массово создают URL-адреса с дублированным контентом. Дублирование происходит в основном из-за того, что страницы с примененными фильтрами являются точными копиями исходной страницы, только с другими списками.

    Хотя дублированный контент не обязательно является отрицательным сигналом ранжирования, он может вызвать следующие проблемы:

    Возьмем к примеру сайт электронной торговли currys.co.uk. Мы начинаем с их страницы мониторов HP для ПК. Это достаточно стандартный макет электронной коммерции с заголовком, списками и многоуровневым поиском в верхней части страницы:

    Ниже под списком продуктов присутствует немного информации о мониторах HP:

    Теперь примените фильтр “мониторы 4k”.

    Вы увидите обновление списков товаров, изменение H1 а URL-адрес изменяется с:

    /hp-computing/pc-monitors/pc-monitors/354_3057_30059_16_xx/xx-criteria.html

    на:

    /hp-4k-monitors/pc-monitors/pc-monitors/354_3057_30059_16_ba00012894-bv00311096/xx-criteria.html

    Но если вы прокрутите в нижнюю часть страницы, то под списками увидите такой же блок контента.

    Это всего лишь один пример дублирования на сайте. Масштабируйте это по всем доступным фильтрам, и вы быстро получите миллионы повторяющихся страниц, которые Google попытается объединить в одну каноническую страницу.

    Раздутие индекса

    Раздутие индекса — это ситуация, когда поисковые системы индексируют страницы вашего сайта, которые не имеют поисковой ценности. 

    Предоставление Google разрешения на индексирование только качественных страниц имеет решающее значение, поскольку проиндексированные страницы низкого качества могут повлиять на общее представление Google о вашем сайте, как объясняет Джон Мюллер в этом видео:

    https://www.youtube.com/watch?v=B1UrnctsiZU&t=605s

    Фасетная навигация потенциально может создавать миллионы индексируемых URL-адресов без уникального содержания. Она также может создавать варианты страниц, которые не представляют ценности для пользователей, использующих поисковые системы.

    Вот пример:

    На AO.com есть страница категории, посвященная отдельно стоящим стиральным машинам: 

    Пользователь может посетить эту страницу и выбрать, как он хочет отфильтровать товары:

    • Бренд: Samsung
    • Загрузка: Высокая
    • Цвет: Серебристый
    • Загрузка: Высокая
    • Функции: Качественная стирка
    • Класс энергопотребления: A

    Благодаря фильтрам сайт показал именно ту стиральную машину, которая соответствует потребностям пользователя.

    Но будет ли пользователь когда-либо искать в Google что-то настолько точное? 

    Ответ однозначно отрицательный. 

    Мы знаем это, потому что в Великобритании поиск по запросу “отдельно стоящие стиральные машины” в месяц выполняется примерно 90 раз в месяц, поэтому крайне маловероятно, что будет много (если таковые будут) поисков чего-то даже более конкретного, например, “большая серебристая отдельно стоящая стиральная машина samsung с функцией быстрой стирки и классом энергоэффективности A”.

    Наличие таких проиндексированных страниц, которые не удовлетворяют поисковый спрос и имеют низкое качество, может привести к негативному восприятию вашего сайта алгоритмом.

    Расходование краулингового бюджета

    Google может выделить лишь ограниченное количество ресурсов для сканирования страниц вашего сайта. Это называется вашим краулинговым бюджетом.

    Управление краулинговым бюджетом Google не считает главным приоритетом, если у вас нет большого сайта (более 1 млн уникальных страниц) или среднего сайта (более 10 тыс. уникальных страниц) с очень быстро меняющимся контентом.

    Если у вас всего несколько тысяч категорий и продуктов, вы можете подумать, что вам не нужно беспокоиться об управлении краулинговым бюджетом. 

    Это может быть в корне неправильно.

    Некоторые реализации фасетной навигации создают доступную для сканирования ссылку для каждой доступной комбинации фасетов.

    В комбинации с игнорированием потенциальных проблем с раздутием индекса, это также означает, что вы потенциально генерируете миллионы URL-адресов, которые будет сканировать Google, поэтому вам нужно будет быстро разбираться с управлением краулинговым бюджетом.

    Вы можете найти такой пример на сайте next.co.uk::

    Если вы просмотрите HTML-код фасета, вы увидите в HTML-коде ссылку:

    Когда вы перейдете по этой ссылке, вы сможете проверить HTML-код другого фасета, например синего:

    Вы можете увидеть, как фасеты объединяются, чтобы создать совершенно новый URL-адрес для сканирования.

    Теперь подумайте обо всех возможных комбинациях различных фильтров. Вы сразу увидите, как сканирование сайта с проблемами фасетной навигации вызовет проблемы для поисковой системы.

    Размытие PageRank

    Фасетная навигация также может размывать PageRank, передаваемый по вашему сайту.

    Дело в том, что PageRank делится на общее количество ссылок на странице. Это является неотъемлемой проблемой фасетной навигации, поскольку многие методы ее реализации генерируют множество внутренних ссылок.

    Таким образом, PageRank будет передаваться не на страницы важных продуктов или категорий, а на ссылки, найденные в ваших фильтрах, что в большинстве случаев не поможет улучшить поисковый трафик.

    Рекомендовано к прочтению: Google PageRank НЕ мертв: вот почему он важен

    Всегда присутствуют явные признаки проблем, связанных с фасетной навигацией. Вот несколько шагов, которые помогут выяснить, могут ли ваши фильтры влиять на ваше SEO.

    1. Начните с запроса c site

    Отличная тактика для быстрой проверки признаков раздутия индекса — использование поискового оператора site:. Хотя это не самый точный способ, он быстрый и легкий.

    Просто добавьте site: перед вашим доменным именем, как показано ниже.

    Обратите внимание на количество результатов, возвращаемых Google. Их больше, чем количество URL-адресов, доступных на вашем сайте?

    Если это так, это первый признак того, что у вас проблемы с раздутием индекса.

    2. Подтвердите с помощью отчетов о покрытии в Google Search Console (GSC)

    Отчет GSC о покрытии — еще один отличный способ быстро обнаружить проблемы сканирования и индексации.

    Просто перейдите к отчету “Покрытие” в GSC и выберите “Действительные” на диаграмме, чтобы получить более точное количество страниц, проиндексированных Google:

    Если цифра кажется высокой или вы внедрили фасетный поиск лишь недавно, и цифра выросла, это указывает на проблемы с раздутием индекса, упомянутые ранее.

    Но как узнать, было ли это вызвано фильтрами?

    Диагностировать проблемы помогут точные карты сайта в формате XML. Если вы загрузили их в GSC, таблица под диаграммой разделит проиндексированные URL-адреса на:

    • проиндексированные и не добавленные в карту сайта
    • проиндексированные и добавленные

    Это означает, что мы можем просмотреть страницы из категории “Проиндексированные и не добавленные в карту сайта”, чтобы увидеть нежелательные страницы, которые индексирует Google:

    Этот пример с сайта ставок, который позволяет фильтровать локации и турниры. Мы видим, что Google индексирует нежелательные URL-адреса.

    Еще один полезный способ обнаружить потенциальные проблемы — отфильтровать “Исключенные” URL-адреса:

    Изучите URL-адреса из категории “просканированные — еще не проиндексированные”, чтобы получить представление о страницах, которые Google обнаружил, но решил не индексировать.

    Google не индексирует все, что сканирует. Если качество страницы низкое, как у многих фасетных страниц, они могут решить не индексировать ее.

    В этом примере мы знаем, что Google обнаружил еще 1000 страниц, которые они могут проиндексировать в будущем. Вы также можете просмотреть таблицу URL-адресов, чтобы увидеть фасетные URL-адреса, кликнув этот отчет.

    Вышеупомянутое является относительно мягким примером проблем, связанных с фасетной навигацией, выделенных в GSC. Со временем эти проблемы могут вырасти и превратиться в сотни тысяч URL-адресов, которые обнаруживаются, но не индексируются (показывая потенциальные проблемы сканирования):

    Или, возможно, сотни тысяч URL-адресов, которые индексируются, хотя не должны:

    3. Соберите больше данных с помощью Аудита сайта

    Использование поиска по сайту и GSC — отличный способ быстро получить данные о проблеме, но ни один из них не позволяет выявить все индексируемые и проиндексированные URL-адреса, что затрудняет выявление тенденций и понимание масштабов проблемы. 

    Инструменты аудита сайта, такие как Аудит сайта Ahrefs, могут помочь исправить проблемы, предоставив вам подробную информацию об URL-адресах, обнаруженных при сканировании сайта. 

    Приведенный ниже пример представляет собой сайт с проблемами, связанными с фасетной навигацией, вызывающими растрату краулингового бюджета, и вы можете определить это всего за пару кликов.

    Сначала перейдите к отчету Индексируемость на левой боковой панели.

    Затем посмотрите на диаграмму “Распределение индексируемости”, и вы увидите, если что-то не так.

    При частичном сканировании Аудит сайта обнаружил 39 неиндексируемых URL-адресов для каждого индексируемого URL-адреса. Учитывая, что это не полное сканирование сайта, можно ожидать, что соотношение индексируемых и неиндексируемых URL-адресов, вероятно, ухудшится по мере продолжения сканирования.

    Все вышеупомянутое указывает на огромную растрату краулингового бюджета, а также является отличным примером ловушки для краулера, когда технические проблемы создают почти бесконечное количество нерелевантных URL-адресов для поиска, которые будет сканировать бот.

    Если фасетная навигация вызывает раздутие индекса, диаграмма, которую вы здесь видите, будет выглядеть немного иначе. Вместо большого количества неиндексируемых URL-адресов вы увидите огромное количество индексируемых URL-адресов на диаграмме, как показано ниже.

    Чтобы убедиться, что эта проблема связана с фасетной навигацией, выберите неиндексируемую часть диаграммы и просмотрите список. Теперь вы увидите таблицу всех просканированных неиндексируемых страниц.

    Вот здесь вам и нужно будет найти закономерность. 

    Что заставляет краулеры находить все эти неиндексируемые страницы?

    Если подавляющее большинство URL-адресов, показанных в таблице, являются фасетными URL-адресами, вы столкнулись с проблемой, связанной с фасетной навигацией.

    Теперь, когда вы знаете, как проверить наличие проблем, связанных с фасетной навигацией, давайте разберемся, как их исправить.

    1. Исправьте индексацию каноническим тегом

    Если вы столкнулись с проблемами индексации, но у вас нет существенных проблем с краулинговым бюджетом (и у вас нет огромного сайта), возможно, лучшим решением будет использование канонического тега. Он объединяет ссылочные сигналы для похожих/повторяющихся страниц в URL-адрес, который вы указываете как канонический.

    В чем выгода? 

    Если у вас есть ссылки на фасетную страницу, которая затем каноникализируется на нефасетную страницу, эти ссылочные сигналы не теряются, вместо этого поисковые системы будут передавать их на страницу категории, что может помочь с ее ранжированием.

    Вот пример, как это реализовать…

    Предположим, что это URL-адрес вашей страницы категории:

    https://example.com/washing-machines/samsung/

    Ваши фасетные URL-адреса работают с параметрами, поэтому, когда кто-то применяет какие-либо фильтры, URL-адрес выглядит следующим образом:

    https://example.com/washing-machines/samsung/?drumsize=16kg&color=silver&energyrating=A

    В приведенный выше URL-адрес фасета вам нужно просто добавить канонический тег, указывающий обратно на страницу категории, чтобы ваш канонический тег выглядел следующим образом:

    <link rel="canonical" href="https://example.com/washing-machines/samsung/" />

    Или вот так в ваших заголовках HTTP:

    Ссылка: <https://example.com/washing-machines/samsung/>; rel="canonical"

    Хотя это кажется хорошим и простым решением серьезной проблемы SEO, как всегда, есть некоторые потенциальные проблемы. Главная из них заключается в том, что Google может игнорировать ваш канонический тег.

    Так происходит просто потому, что канонические теги — это рекомендации для поисковых систем, а не директивы. Поэтому, если Google по какой-то причине считает, что вы неправильно применили тег, они могут его проигнорировать. 

    Распространенные причины, по которым Google решает игнорировать ваши предложения канонических тегов:

    • Страницы не являются дубликатами.Если ваши фасетные страницы значительно изменятся при применении фильтра, Google, скорее всего, решит, что они не дублируют друг друга. Например, Google может запутаться, если меняются контент, заголовки и теги title.
    • Вы внутренне ссылаетесь на фасетные страницы.Если у вас есть много внутренних ссылок на каноническую фасетную страницу, Google может неправильно понять важность страницы и проигнорировать ваш канонический тег.

    Если вы не видите уменьшения количества действительных URL-адресов в отчетах о покрытии после внедрения канонического тега, переходите ко второму шагу.

    2. Используйте отчет “Параметры URL” в Search Console.

    Если канонизация не устранила проблемы с индексированием, отчет “Параметры URL” в GSC, возможно, будет лучшим способом оптимизации сканирования. Он позволяет указать Google, как обрабатывать параметры в ваших URL-адресах, и помогает им сканировать ваш сайт более эффективно. 

    Обратной стороной медали является то, что этот метод работает только в том случае, если фасетная навигация использует параметры URL-адресов. (Если это не ваш случай, переходите к шагу 3).

    Использовать отчет “Параметры URL” довольно просто. Просто добавьте параметр и сообщите Google, как он влияет на контент страницы и есть ли исключения из правила, которые им следует сканировать.

    Примечание.
    Если вы уже блокируете их сканирование через robots.txt, это не возымеет эффекта.

    3. Исправьте сканирование с помощью robots.txt

    Если вы столкнулись с проблемами краулингового бюджета и вам не нужно консолидировать сигналы, вы можете использовать файл robots.txt, чтобы заблокировать для Google сканирование любых фасетных URL-адресов.

    Чтобы заблокировать сканирование URL-адреса с помощью файла robots.txt, добавьте правило disallow, подобное примеру ниже:

    User-agent: *

    Disallow: *size=*

    В приведенном выше примере я добавил два символа подстановки (*) вокруг параметра. Если ваша фасетная навигация работает путем добавления каталогов, ваше правило будет выглядеть так:

    User-agent: *

    Disallow: */size/*

    Есть два случая, когда метод robots.txt работает некорректно:

    • У вас нет явных шаблонов в URL-адресе для запрета. Это может быть связано с тем, что каждой странице даны уникальные параметры или каталоги для фасетов.
    • Вы хотите разрешить сканирование одних шаблонов URL-адресов и заблокировать другие. Например, вы хотите, чтобы каталог /color/ сканировался в категории футболок (поскольку он предоставляет ценность для поиска), но хотите, чтобы он был заблокирован для категории нижнего белья. Хотя вы можете обойти это, комбинируя правила Allow и Disallow в файле robots.txt, управление с помощью такого метода может быть трудным на крупных веб-сайтах.

    Вы также должны знать, что блокировка сканирования не обязательно мешает Google индексировать заблокированные URL-адреса. В целом, Google будет удалять заблокированные URL-адреса из индекса, но только если у них нет обратных ссылок и/или множества внутренних ссылок, указывающих на них. Другими словами, только если ничто другое не сигнализирует Google о том, что эти URL-адреса ценные.

    4. Установите атрибут Nofollow и/или удалите внутренние ссылки на фасетные URL-адреса 

    Если блокирование сканирования не устраняет полностью проблемы индексирования, вызванные фасетным поиском, проблему может решить добавление атрибута nofollow внутренним ссылкам на эти URL-адреса.

    Обычно есть два источника этих ссылок:

    1. Ссылки фасетного поиска. Например, ссылки в вашей фасетной навигации.
    2. Ссылки в других частях вашего сайта. Например, из блог-постов и т. д.

    Для ссылок фасетного поиска достаточно применить общий nofollow просто с помощью базового кода. Однако это, вероятно, не лучшая идея, если у вас есть канонические теги на фасетных URL-адресах и/или фасетные URL-адреса, которые вы хотите, чтобы Google проиндексировал. Причина в том, что если Google не сканирует эти ссылки из-за того, что им присвоен атрибут nofollow, это может вызвать другие проблемы с индексацией.

    Альтернативой является отбор фасетов, которым вы присваиваете атрибут nofollow. Это немного сложнее реализовать с технической точки зрения, но оно того стоит, если вы хотите настроить таргетинг на запросы фаетного поиска с длинным хвостом (подробнее об этом далее).

    Основным недостатком этого подхода является то, что он стал менее полезным после того, как Google начал рассматривать rel=’nofollow’ как подсказку, то есть это не директива, как robots.txt.

    Однако Google будет использовать внутренний атрибут nofollow, чтобы указать, что URL-адрес в атрибуте href не так важен и Google должен отменить его сканирование. 

    Джон Мюллер подтвердил это:

    […] мы продолжим использовать эти внутренние ссылки с атрибутом nofollow как знак того, что вы сообщаете нам:
    • Эти страницы не так интересны.
    • Google не нужно сканировать их.
    • Их не нужно использовать для ранжирования или индексации.
    Джон Мюллер
    Джон Мюллер, Представитель поисковой системы Google
    Примечание.
    Такой подход не исправляет размытие PageRank. PageRank по-прежнему распределяется между всеми ссылками на странице, даже теми, которые имеют атрибут nofollow. Если вы хотите это исправить, вам нужно будет реализовать правильную каноникализацию. 

    Что касается ссылок в других частях вашего веб-сайта, лучше их просто удалить. 

    Вы можете найти внутренние ссылки на проблемные фасетные URL-адреса с помощью Сайт Эксплорера от Ahrefs:

    1. Введите проблемный фасетный URL-адрес.
    2. Затем перейдите в отчет Внутренние обратные ссылки
    3. Отфильтруйте ссылки Dofollow.

    Затем вы можете просто найти внутренние ссылки с атрибутом dofollow в других частях вашего сайта и удалить их.

    5. Окончательно исправьте индексацию с помощью тега noindex

    Если после выполнения описанных выше действий вы по-прежнему испытываете проблемы с индексацией, то вашим последним пристанищем является тег noindex.

    Преимущество тега noindex в том, что это надежный способ предотвратить индексацию фасетных страниц. Обратной стороной является то, что вы не консолидируете сигналы ранжирования, и со временем Google может перестать сканировать внутренние ссылки на неиндексированной странице, что означает отсутствие передачи сигналов ранжирования.

    Тем не менее, это хороший способ удалить фасетные URL-адреса из индекса Google, если все остальное не помогает.

    Чтобы реализовать это, просто добавьте тег meta robots в <head> фасетного URL-адреса:

    <meta name="robots" content="noindex">

    Или заголовок X‑Robots в ваши HTTP-заголовки фасетного URL-адреса:

    X-Robots-Tag: noindex

    Затем вам нужно удалить/настроить любые блокировки сканирования для URL-адреса в файле robots.txt или в инструменте “Параметры URL”. В противном случае Google никогда не увидит директиву noindex, что означает, что страница останется индексированной. 

    Рекомендовано к прочтению: Тег meta robots и x‑robots-tag: все, что вам нужно о нем знать

    Из предыдущего раздела вы уже поняли, что исправить все потенциальные проблемы, которые может создать фасетная навигация, непросто.

    Каждый подход к исправлению как индексации, так и сканирования имеет свои недостатки или осложнения.

    Но есть способ получше.

    Предположим, вы реализуете новую конфигурацию фасетной навигации или создаете ее впервые. В этом случае вы можете обойти все вышеперечисленные проблемы, сохранив при этом максимальную пользу от UX.

    Вот как это сделать:

    1. Используйте AJAX и избегайте внутренних ссылок

    Во-первых, создайте фасетную навигацию с помощью AJAX и не добавляйте никаких внутренних ссылок формата <a href=…>.

    Таким образом, пользователи получают отличный опыт взаимодействия, так как страница не перезагружается при каждом применении фильтров, а Google не видит никаких внутренних ссылок на фасетные страницы, а значит:

    1. они их не сканируют
    2. В результате Google не индексирует их
    3. Более того, вы устраняете любое потенциальное размытие PageRank

    Вот пример:

    Я реализовал фасетную навигацию с помощью плагина WordPress WP Grid Builder на созданном мною ресурсе под названием SEO Toolbelt.

    Выглядит это так:

    Если кликнуть правой кнопкой мыши и просмотреть код любого из флажков, служащих для применения фильтров, вы увидите, что они не содержат ссылки <a href=…>, что не дает Google сканировать любые дополнительные URL-адреса. 

    Благодаря этому я избавился от необходимости даже думать о растрате краулингового бюджета из-за фасетной навигации.

    2. Убедитесь, что URL-адреса по-прежнему доступны

    Нам нужно убедиться, что, когда пользователь кликает фильтр, URL-адрес изменяется.

    Я рекомендую это сделать, поскольку мы существенно изменили контент страницы, и в идеале, если пользователь делает закладки, ссылается на страницу или делится URL-адресом с друзьями, содержимое URL-адреса по-прежнему будет отражать фильтры, которые они применили, когда добавили страницу в закладки, поделились ней или сослались на нее.

    Существует два способа сделать это:

    • Параметры URL-адреса (?)
    • Хеши URL-адреса (#)

    Лучшее решение — хеши URL-адресов, поскольку Google имеет тенденцию игнорировать все, что находится после хеша в URL-адресе.

    WP Grid Builder использует параметры, поэтому после применения фильтра URL-адрес меняется на что-то вроде этого:

    https://seotoolbelt.co/tools/auditing/?_tool_type=browser-extension

    Если вы перейдете по этому URL-адресу, вы увидите, что отфильтрованная сетка инструментов обновлена и отражает примененные фильтры.

    В этом случае, поскольку я использую параметры URL-адреса, мне также нужно добавить канонический тег к версии URL-адреса без параметров:

    https://seotoolbelt.co/tools/auditing/

    Учитывая, что эти версии параметров URL-адресов не имеют внутренних ссылок и с гораздо меньшей вероятностью получат внешние ссылки с других сайтов (это единственный способ, которым Google может их обнаружить), у нас низкий риск их игнорирования.

    3. Предоставьте альтернативные пути сканирования важных страниц для поиска

    В некоторых случаях отфильтрованная версия страницы может быть полезна для поиска. 

    Например, на моей странице расширений браузера для SEO есть фильтры для Firefox и Chrome. Обе эти страницы имеют некоторый поисковый потенциал.

    Поэтому нужно убедиться, что для них созданы индексируемые URL-адреса. Лучший способ сделать это — убедиться, что у вас есть альтернативные пути сканирования этих страниц. Я сделал это, добавив субнавигационные ссылки к индексируемым версиям этих страниц фильтров вверху страницы.

    Эти субколлекции создаются на основе тех же атрибутов, что фасетная версия страницы, но я должен “согласиться” на их создание.

    Такая реализация достигла нескольких вещей:

    • Я предотвратил растрату краулингового бюджета, так как у меня нет внутренних ссылок на фасетные страницы.
    • Фасетные страницы остались доступными, что является положительным для UX.
    • Если у фасетной страницы есть потенциал для поиска, я могу редакционно разрешить индексирование этой страницы.

    Как видите, этим значительно проще управлять с точки зрения SEO, и нет никаких недостатков.

    До сих пор я позиционировал фасетную навигацию как нечто, что просто вызывает затруднения при работе с SEO. Однако вы также можете использовать фасетную навигацию как способ получить больше трафика, сочетая ее со стратегией, построенной на ключевых словах с длинным хвостом.

    Я не могу передать, насколько невероятно полезным это может быть, если сделать все правильно. Данные Ahrefs показывают, что 99,84% ключевых слов получают менее 1000 запросов в месяц, и на них приходится 39,33% общего поискового спроса:

    ​​

    URL-адреса фасетов идеально подходят для захвата трафика по ключевым словам с длинным хвостом, учитывая, как фасеты создают более конкретные версии страниц, нацеленных на общие запросы.

    Во-первых, я поделюсь с вами пошаговым процессом, который поможет выявить возможности для получения большего количества трафика по запросам с длинным хвостом с помощью фасетной навигации, а затем я объясню некоторые особенности его реализации.

    1. Определите варианты ключевых слов с длинным хвостом 

    Для начала вам нужно определить возможные ключевые слова с помощью Анализа ключевых слов Ahrefs. Это сделать невероятно просто.

    Введите название категории, которая уже есть на вашем сайте, например “джинсы с завышенной талией”.

    Перейдите к отчету “Подходящие термины”.

    Воспользуйтесь боковой панелью с терминами и перейдите на “Родительские темы”.

    Инструмент сгруппирует все ключевые слова с похожей поисковой выдачей. Затем вы можете просмотреть этот список и выбрать потенциальные фасетные страницы, которые стоит сделать индексируемыми. Вот некоторые из них, которые я заметил на снимке экрана выше:

    • джинсы с клешем и завышенной талией (1900 запросов)
    • джинсы в обтяжку с завышенной талией (1800 запросов)
    • джинсы с завышенной талией и широкими штанинами (1300 запросов)
    • джинсы с очень высокой талией (970 запросов)
    • джинсы бойфренды с высокой посадкой (700 запросов)
    • джинсы суперобтягивающие с высокой посадкой (380 запросов)
    • джинсы бойфренды с высокой талией (360 запросов)

    2. Сделайте эти страницы индексируемыми

    Нам нужно сделать эти страницы доступными для сканирования и индексации Google. 

    Это может работать по-разному, в зависимости от вашего типа фасетной навигации.

    Фасетная навигация с внутренними ссылками

    Если вы внедрили фасетную навигацию, но настроили неидеально с использованием внутренних ссылок на каждый фасет, для этих URL-адресов вам необходимо убедиться, что:

    • Канонический тег ссылается на самого себя.
    • Тег noindex удален (при необходимости).
    • Все соответствующие правила disallow в файле robots.txt удалены (или вы добавили правило allow).
    • Все атрибуты nofollow внутренних ссылок удалены (при необходимости).

    Что из перечисленного выше вам нужно сделать, зависит от вашей реализации, но важно, чтобы поисковые системы могли сканировать и индексировать эти страницы.

    Фасетная навигация AJAX без внутренних ссылок

    Вам нужно будет создать страницу подкатегории для идеальной настройки фасетной навигации, упомянутой в предыдущем разделе.

    Вам нужно это сделать, потому что фасетная навигация не генерирует внутренние ссылки, поэтому вы не можете использовать ее для создания этих страниц за вас.

    Большинство платформ электронной коммерции поддерживают создание подкатегорий, но в идеале вам нужна дополнительная функциональность, чтобы продукты подкатегорий основывались на отфильтрованной версии родительской категории, в основном для того, чтобы не создавать каждую подкатегорию вручную. Таким образом, вы получаете преимущества быстрого создания страниц, как это делает фасетная навигация, при одновременном обходе проблем с поисковой оптимизацией.

    Например, если мы создаем подкатегорию “джинсы в обтяжку с высокой посадкой”, мы хотим унаследовать списки товаров “джинсы с высокой посадкой”, но показывать только те продукты, к которым также применен атрибут “в обтяжку”.

    3. Оптимизируйте URL-адреса для поиска

    Это очевидный шаг, но вам нужно выполнить фундаментальные SEO-оптимизации, например:

    • Используйте простые, удобочитаемые URL-адреса. Например, ваш URL-адрес в идеале должен быть /jeans/high-rise/skinny/, а не /jeans/high-rise/?fit_variant=skinny
    • Оптимизируйте теги title, meta description и теги заголовков.
    • Пишите уникальный контент.
    • Добавьте URL-адреса в карту сайта в XML-формате.

    Основные сложности здесь, как правило, связаны с конфигурациями, в которых вы выбираете фасетную страницу из имеющихся по умолчанию элементов управления индексированием и сканированием.

    Просто потому, что технически фасетные страницы по своей сути динамичны и это не то же самое, что создание новой подкатегории. 

    Чтобы обеспечить возможности для внедрения критических on-page оптимизаций с фасетными URL-адресами, потребуются специальные функции.

    Заключение

    Надеюсь, теперь вы полностью осознали не только риски для SEO, присущие фасетной навигации, но и те значительные возможности, которые она предоставляет для оптимизации под ключевые слова с длинным хвостом.

    Есть вопросы по фасетной навигации? Напишите мне в Твиттере.