Het inzetten van filters; waar rekening mee houden?

Het inzetten van filters; waar rekening mee houden?

Filters kunnen gebruikt worden om het voor je websitebezoekers eenvoudiger te maken om te kunnen vinden waar ze naar op zoek zijn. Ondanks het feit dat het inzetten van filters in de praktijk zeer interessant kan zijn, moeten we zeggen dat er ook wat addertjes onder het gras kunnen zitten. Vooral op het gebied van SEO dien je rekening te houden met een aantal belangrijkse aandachtpunten wanneer je gaat werken met filters. Welke belangrijke aandachtspunten zijn dit precies? Dat en meer vertellen we je in dit blogartikel.

Waarom gebruikmaken van een filter?

Wil jij jouw bezoekers de meest optimale gebruikerservaring bieden op je website, zodat de bezoekers bijvoorbeeld zo snel mogelijk precies dát artikel kunnen vinden waar ze naar op zoek zijn? Dan is het mogelijk om gebruik te maken van filters. Filters maken het, zoals de naam al doet vermoeden, mogelijk voor bezoekers om producten of artikelen te filteren op basis van een specifieke eigenschap. Binnen e-Commerce wordt er vaak gebruik gemaakt van min of meer dezelfde filters. Er wordt bijvoorbeeld gebruik gemaakt van filters op basis van kleur, merk, maat of type, maar natuurlijk ook op basis van prijs. Een filter kan op deze manier extra waarde toevoegen aan de categorie en ervoor zorgen dat een bezoeker sneller kan overgaan tot aankoop. In de meeste gevallen wordt er gebruikt gemaakt van filters door middel van een parameter in de URL. Dit kan er in de praktijk als volgt uit zien:

https://www.jouwwebsite.nl/kleding/?kleur=rood

Het bovenstaande voorbeeld stelt een filter in binnen de categorie ‘kleding’ voor de kleur ‘rood’. In principe geeft de bovenstaande URL dezelfde content weer als op https://www.jouwwebsite.nl/kleding/ het geval is. Op deze manier ontstaat dan ook een vorm van duplicate content. Deze duplicate content kan getackeld worden door de parameter te blokkeren in het robots.txt bestand. Duplicate content heeft een negatieve invloed op de SEO-waarde van je website en daarom is het verstandig om deze pagina’s uit te sluiten. Door deze website uit te sluiten voor de Google bot zal de URL niet gecrawld worden en dus ook niet in de index van Google verschijnen. Er bestaan verschillende manieren om filters toe te passen en ze tegelijkertijd relevant te maken voor de Google index. In het robots.txt bestand kan de parameter van de URL voor alle bots op de volgende manier worden geblokkeerd.

# Crawlers Setup

User-agent: *

# Paths (no clean URLs)

Disallow: /*?kleur=

Disallow: /*&kleur=

Volgbaar maken van filters

Wanneer je vorige alinea goed hebt doorgelezen kan je je afvragen waarom je er nu precies voor zou moeten kiezen om een filter toch volgbaar te maken. De reden daarvoor is omdat bepaalde filters een zoekwoord kunnen vormen waar wel degelijk op gezocht wordt. Wanneer dit het geval is kan het lonen om een filter volgbaar te maken en de pagina te vullen met unieke en waardevolle content. In het eerdergenoemde voorbeeld wordt er een combinatie gevormd van ‘rode kleding’. Wanneer je erachter komt dat hier vaak naar gezocht wordt, bijvoorbeeld aan de hand van een analyse uit de Google Zoekwoordplanner, kan het verstandig zijn om de filter volgbaar te maken. De gefilterde URL zal vanaf dat moment niet meer worden gevormd door middel van een parameter, maar zal er als volgt uit komen te zien:

https://www.jouwwebsite.nl/kleding/rood/

Op de bovengenoemde pagina kan er dan content geplaatst worden welke geoptimaliseerd kan worden voor het zoekwoord ‘rode kleding’. Let er goed op dat de gefilterde URL in dit geval niet geblokkeerd wordt in het robots.txt bestand. De filter dient op een manier ingericht te worden dat deze opgenomen kan worden in de Google index. Om dit voor elkaar te krijgen moet de pagina over een zelfverwijzende ‘canonical-tag beschikken. Daarnaast dienen de meta robots als INDEX/FOLLOW worden ingesteld.

Zijn filters slecht voor je SEO?

Helaas is het ook mogelijk dat filters een negatieve invloed hebben op de SEO-waarde van je website. Een overvloed aan volgbare filters zorgt er namelijk voor dat er honderden of zelfs duizenden pagina’s geïndexeerd dienen te worden. Het enorme aantal aan te crawlen en te indexeren pagina’s kan ervoor zorgen dat het beschikbare crawlbudget op is voordat de meest belangrijke pagina’s aan de beurt zijn. Dit wil je natuurlijk koste wat het kost voorkomen. Daarom is het belangrijk om onbelangrijke filters op basis van zoekvolume uit te sluiten voor indexatie.

Filters uitsluiten van indexatie

Je kan er op verschillende manieren voor kiezen om filters uit te sluiten voor indexatie, namelijk:

  • Door het inzetten van canonical-tags;
  • Door het gebruik van een robots.txt bestand;
  • Door noindex, follow/nofollow;

1.) Uitsluiten met canonical-tags

Door gebruik te maken van een canonical-tag kan er worden aangegeven waar de originele content die op de huidige pagina staat vandaan komt. Door gebruik te maken van een rel=canonical kan je eenvoudig aangeven wat de originele pagina is. De canonical-tag zal binnen de gefilterde pagina’s welke over dezelfde content beschikken aangeven dat de content werd gekopieerd en dat deze content uitsluitend bedoeld is voor informatieve doeleinden voor de bezoekers van je website. Google zal de canonical-tag en de waarde van de gefilterde pagina herkennen en herleiden naar de originele pagina. Een voorbeeld van een canonical tag welke wordt ingezet voor een pagina die wordt gefilterd kan er als volgt uitzien: https://www.jouwwebsite.nl/kleding/?kleur=rood:

Door gebruik te maken van bovenstaande canonical-tag wordt ervoor gezorgd dat je aangeeft dat de pagina https://www.jouwwebsite.nl/kleding/?kleur=rood een duplicaat is van de oorspronkelijke pagina https://www.jouwwebsite.nl/kleding/. Dit kan een efficiënte oplossing zijn, maar echter moet je wel rekening houden met het feit dat Google ervoor kan kiezen om de tag te negeren. Dit kan doordat je met een canonical-tag geen harde regel, maar een aanbeveling aangeeft in de ogen van Google.

2.) Uitsluiten met robots.txt

Naast bovenstaande optie is het ook mogelijk om filters uit te sluiten door middel van een robots.txt bestand. Hierin kunnen delen van de website geblokkeerd worden voor de bots van de zoekmachine. Dit is interessant, omdat dit het mogelijk maakt om het beschikbare crawlbudget van je website efficiënter te beheren. Een filter kan in het robots.txt bestand geblokkeerd worden voor robots om te crawlen. Hierdoor zal de zoekmachine ervoor kiezen om deze filter niet in de index op te nemen. Het blokkeren van delen website kan dus zeker interessant zijn, maar helaas is dit onderdeel zeer gevoelig voor fouten. Hierdoor wordt er dan vandaag de dag weinig gebruik gemaakt van deze optie.

3.) Uitsluiten met noindex, follow / nofollow

Eén van de eerste dingen die je zal moeten doen is bepalen welke filters je nu precies wilt lagen volgen en welke niet. Om dit te kunnen bepalen dienen er twee belangrijke stappen ondernomen te worden, namelijk:

  • Het in kaart brengen van de filters welke je graag volgbaar zou willen maken;
  • Het in kaart brengen van het feit of je CMS dit toelaat of niet (en indien vereist met de webbouwer overleggen over welke stappen er dienen te worden ondernomen);

Hou er tot slot ook rekening mee dat je geen verschillende uitsluitingen gaat combineren. Het opnemen van zowel rel-canonical als een noindex / nofollow heeft immers geen enkele zin en kan in de praktijk alleen maar voor fouten of misverstanden zorgen.

Dit vind je vast ook leuk

Robots.txt inzetten voor betere kwaliteit en indexatie

Door de jaren heen is duidelijk geworden dat de algemene kwaliteit waar je website...

Het inzetten van filters; waar rekening mee houden?

Om het voor gebruikers eenvoudig mogelijk te maken om snel te vinden...

Paginering; cruciaal voor begrijpen van pagina’s

De kans bestaat dat je nog niet eerder hebt gehoord over ‘paginering attributen’...

Klaar om hoger in Google te komen?

Neem contact met ons op.