Jak správně řešit filtraci (fasetovou navigaci) na webu z pohledu SEO

Filtrace fasetová navigace

Filtrace je součást drtivé většiny e-shopů, které jsou často vyřešeny špatně, byť je to velice důležitá část. Už roky o tom přednáším (od roku 2015) a stále se zdá, že dobrých řešení není příliš. A to ani u balíčkových či profesionálních řešení. Proto jsem sepsal tento článek, jak filtraci nebo-li fasetovou navigaci řešit správně z pohledu vyhledávačů.

Co je to filtrace a proč je důležitá

Filtrace je způsob jak třídit obsah v dané kategorii podle nějakých parametrů. Asi ho všichni znáte z Heuréky. Také se jim říká fasetová navigace.

Ukázka filtrace na Heuréka.cz
Ukázka filtrace na Heuréka.cz

Filtrace je pro SEO důležitá, protože kombinace filtrů vytváří cenné vstupní stránky (často i pro důležité long-taily), které bychom jinak museli řešit vytvářením množství dalších statických stránek. Ty už ale máme nyní vyřešené pomocí filtrů. Jedná se například o kombinace základních frází s barvami (černé pánské tričko), rozměry (pánské tričko L) nebo značkami (pánské tričko adidas) nebo jejich kombinacemi (černé pánské tričko adidas xl). Potíž je v tom, že filtrace je často řešená formulářovými prvky v kombinaci JavaScriptem nebo JavaScriptovými frameworky. A s těmi mají stále vyhledávače obtíže a nedokážou je projít a na rendering ze strany Google se nedá ve všech případech spolehnout (a asi nikdy to tak nebude).

Kvůli tomu pak stránky pro fráze jako černé pánské tričko, pánské tričko L, pánské tričko adidasčerné pánské tričko adidas xl nejsou dostupné vyhledávačům a tím pádem indexovatelné. Přitom řešení je jednoduché – připravit filtraci po technické stránce správně, aby je vyhledávače dokázaly projít. V následujících odstavcích si řekneme jak na to.

Jak na SEO filtraci správně

Nastavení filtrace není jen o technickém nastavení, souvisí i se strategickými rozhodnutími a musíme se vyvarovat pár pastí. Začneme, ale tou strategií.

Výběr správných hodnot filtrů a jejich kombinací

První past je nechat SEO filtraci na celou šíři filtrace. Kombinací všech hodnot všech filtrů totiž vygenerujete statisíce možná i milióny stránek, které vám rozmělní přelévání link-juice a totálně vybijí crawl-budget. Většina takových stránek ani nebude hledaná. Takže tohle nedělejte.

Nejdříve si z analýzy klíčových slov vyfiltrujte kombinace, které jsou ve vašem oboru hledané. To budou kombinace filtrů, které připravíte pro průchodnost vyhledávačů. Označuji takové kombinace Důležité filtry.

Ostatní kombinace naopak pro vyhledávače zakážete – ideálně rovnou v robots.txt pomocí pokynu /disallow (mrkněte na příklad na Heuréce). Kvůli crawl budgetu nedoporučuji noindex, canonical ani v podstatě nefunkční nofollow. Ideální je proto pro tyto nedůležité kombinace vystavět URL tak, aby jste ji jako vzor mohli snadno zakázat. Označuji je jako Nedůležité filtry.

Krom nedůležitých filtrů také zakazuji kombinace více než 3 parametrů (lidé je ve vyhledávačích nezadávají) a také vícevýběry (multivýběry) – tzn. když je vybráno více hodnot v jednom filtru:

Vícevýběr u filtru
Vícevýběr u filtru

Technické řešení samotného filtru

Jak už jsme si řekli, vyhledávače neumí klikat na položky formuláře (checkboxy, radiobuttony, roletky aj.) a moc neumí s JavaScriptem. Také víme, že vyhledávač často nachází nové stránky tak, že najde v zdrojovém kódu URL. Což znamená, že ve zdrojovém kódu musí být ideálně odkazy (<a href="URL">) na stránky tvořené filtrací, které musíte vidět ve zdrojovém kódu i při vypnutém JavaScriptu. Jako to má například Heuréka:

Filtrace ve zdrojovém kódu

Díky tomuto řešení u každého filtru může vyhledávač navštívit každou URL důležitého filtru, vyjma těch nedůležitých, které jsme vyřadili z procházení v robots.txt.

Tvorba URL filtru

Základem je netvořit URL dle hierarchické struktury zboží na e-shopu, tedy ne kategorie jako /bile-zbozi/lednicky/dvoudverove, ale spíše jen poslední kategorie v cestě /dvoudverove-lednicky/. Jak budete tvořit URL filtrů, je v zásadě jedno, já doporučuju filtry jednoznačně odlišit. Např. /lednicky/_bosch_americke (podtržítko identifikuje filtry, ale je jedno jaký znak tam dáte).

Pozor na duplicity. Musíte ošetřit, abyste neměli URL jako /lednicky/_bosch_americke a zároveň /lednicky/_americke_bosch. Řešením je si vybrat jednu hlavni verzi a všechny další na ně přesměrovávat.

Pokud potřebujete zkombinovat filtry důležité a nedůležité do jedné URL, typicky ledničky Bosch a hloubka lednice, nedoporučuji již používat mřížku /lednicky/_bosch#hloubka-60, protože se může stát, že URL za mřížkou bude Google renderovat a všechny vám zaindexuje. Případovka k tomuto případu zde.

Lepší je použít nějaký unikátní parametr a ten v robots.txt zakázat. Například /lednicky/_bosch?nf=hloubka-60.

Optimalizace důležitých filtrů

Nyní máme filtry přístupné pro vyhledávače. Co musíme udělat, aby stránky nabíraly nějaké smysluplné hodnocení?

  1. URL důležitých filtrů přidejte do speciální sitemapy, kterou nahrajte do Search Console a odkažte na ni v robots.txt.
  2. URL filtrů musí být unikátní.
  3. Obsah na dané stránce musí být také unikátní – tedy title, meta description, nadpis a úvodní text. To se dá řešit automatizací, ale o tom třeba zase příště. Pokud vás to zajímá v praxi, mrkněte na filtraci třeba u Bella Rose:

    Ukázka automatizace u Bella Rose.cz
    Ukázka automatizace u Bella Rose.cz
  4. Na tyto URL nasměrujte co nejvíce relevantních interních (nebo i externích) odkazů. Ať už manuálně, nebo automaticky.

Shrnutí

TLDR tedy zní:

  1. Poskytněte vyhledávačům jen důležité kombinace filtrů.
  2. Poskytněte ve zdrojovém kódu unikátní URL přístupné i bez JavaScriptu.
  3. Vzniklé URL musí být obsahově unikátní.
  4. Vše nedůležité zakažte v robots.txt.

Pokud se chcete naučit filtry nastavovat lépe a více do hloubky než v tomto článku, přijďte na moje školení Chytré SEO (více strategicky) nebo Technické SEO (více technicky). Nebo mi napište 🙂

2915 zhlédnutí (celkově) 1 zhlédnutí (dnes)
Sdílením buduješ SEO!Share on Facebook
Facebook
19Tweet about this on Twitter
Twitter
Share on Google+
Google+
0Share on LinkedIn
Linkedin
Buffer this page
Buffer
Pavel Ungr
Věnuji se SEO již 13 let od roku 2004. Z Et netery jsem nastoupil do Ataxa a následně do H1.cz. Od roku 2009 pracuji jako profesionální SEO konzultant a od roku 2013 jsem na volné noze. Vedu SEO školení a pravidelně publikuji zejména o internetovém marketingu a přednáším.Baví mě SEO experimenty a propaguji SEO jako tvorbu zajímavého a kvalitního obsahového webu který je primárně prospěšný pro uživatele a technicky přístupný.. Krom SEO se aktivně zajímá o UX, obsahový marketing, sociální sítě a jejich využití z pohledu online marketingu.

komentářů 7

  1. Zdravím. Můžu se zeptat proč kvůli crawl budgetu nedoporučujete noindex nebo canonical? Mám zkušenost, že disallow v robots.txt Googlu nijak nebrání nechat takové stránky v indexu i když je tam mít nechcete. Canonical nebo noindex by měla být cesta jak mu říct, aby je neindexoval, ne?

    1. Protože to, že něco není v indexu neznamená, že tam robot nechodí a tím pádem nenavyšuje crawl budget. Proto je řešení pomocí kanonizace nebo noindex nevhodné. Pokud navzdory zápisu v robots.txt je stránka v indexu tak tam patrně byla již před nasazením dorektivy robots.txt nebo kvůli externím signálům (externí odkazy a zmínky).

  2. Pavle stretol som sa s názorom i case-study, kde bolo lepšie naozaj si prejsť filtráciu, následne identifikovať PODSTATNÉ filtre a tieto podstatné filtre prerobiť na podkategórie. Tým vypadnú z filtrácie a na ostatné filtre čo zostali ako nepodstatné dať canonical na podkategóriu.
    Pri dobrej štruktúre stránky zistili, že keď nechali filtre indexované, bolo na nich do 2% trafiku z organiky. Pričom to bolo veľmi veľa URL, čo mohlo trápiť crawl budget.
    Povedali si, že to za to nestojí a dali tam canonical.
    Čo ty na to?

    1. Můžu poprosit o odkaz na tu případovou studii? JInak ano, takhle to řeší často firmy, které nemají vyřešenou filtraci správně a potřebují ty vstupní stránky. Třeba Alza. Asi to není nic proti ničemu, jen mě to přijde nesystémové a složité na udržování a nákladné. Nevím ale proč by to mělo být lepší?

  3. Ahoj Pavle,

    skvely clanok. Vsimol som si jednu vec ohladom nofollow. Myslis ze to neriesi crawl budget? Jedine riesenie tohto problemu je robots pripadne JS? Ohladom nofollow som cital protichodne nazory, niekde ano, niekde je vraj pre crawl budget nepouzitelny. Pripadne pouzit oboje aj robots aj nofollow v ramci webu a niekde aj noindex.
    Ako vidno, jednoduche riesenie nie je.

    1. Podle mě ne, protože řeší jen, že na danou URL vyhledávač může jen nesmí z jednoho konkrétního odkazu. A na URL většinou vede množství odkazů.

Napsat komentář

Vaše emailová adresa nebude zveřejněna. Vyžadované informace jsou označeny *

CommentLuv badge