Page content

article content

Het inzetten van filters; waar rekening mee houden?

Om het voor gebruikers eenvoudig mogelijk te maken om snel te vinden waar ze precies naar op zoek zijn binnen een bepaalde website wordt er zeer vaak gebruik gemaakt van filters. Ondanks het feit dat het inzetten van filters in de praktijk zeer interessant is moet het gezegd dat er ook wat addertjes onder het gras kunnen zitten. Dit niet in het minst op vlak van SEO. Omwille van deze reden is het aan te raden om altijd rekening te houden met verschillende, belangrijke aandachtspunten op het vlak van filters. Welke belangrijke aandachtspunten dit nu precies zijn vertellen we je graag in dit interessante blogartikel.

Waarom gebruikmaken van een filter?

Wil je jouw bezoekers graag de meest optimale gebruikservaring bieden op je website? Wil je er bijgevolg voor zorgen dat hij of zij zo snel mogelijk precies dat artikel kan vinden waar men naar op zoek is? In dat geval kan er gebruik worden gemaakt van filters. Filters maken het zoals de naam reeds laat vermoeden voor bezoekers mogelijk om te gaan filteren op basis van een specifieke eigenschap. Dit kan zowel worden toegepast voor diensten en producten. Binnen de e-commerce wordt er vaak gebruik gemaakt van min of meer dezelfde filters. Er wordt dan niet alleen gefilterd op vlak van kleur, merk, maat of type, maar natuurlijk ook op vlak van prijs. De filter kan op deze manier een extra waarde toevoegen aan de categorie in kwestie en er bijgevolg voor zorgen dat een bezoeker sneller over kan gaan tot aankoop. In het merendeel van de gevallen wordt het toepassen van een filter doorgaans aangegeven door middel van een parameter in de URL. Dit kan er in de praktijk als volgt uit komen te zien:

https://www.jouwwebsite.nl/kleding/?kleur=rood

Het bovenstaande voorbeeld stelt een filter in binnen de categorie kleding voor de kleur rood. In principe geeft de bovenstaande URL dezelfde content weer als op https://www.jouwwebsite.nl/kleding/ het geval zou zijn. Op deze manier ontstaat er een vorm van duplicate content. Omwille van deze reden wordt er in veel gevallen voor gekozen om deze parameter te blokkeren door middel van het robots.txt bestand. Dit omdat ze niet relevant is voor de Google index. Bijgevolg zal Googlebot niet over de mogelijkheid beschikken om de URL te crawlen waardoor ze ook niet in haar index zal worden weergegeven. Dit gezegd zijnde is het interessant om te weten dat er verschillende manieren bestaan om filters toe te passen en ze tegelijkertijd ook wel degelijke relevant te maken voor de Google Index.

In het robots.txt bestand kan de parameter voor alle zogenaamde bots of spiders op de onderstaande manier worden geblokkeerd:

# Crawlers Setup

User-agent: *

# Paths (no clean URLs)

Disallow: /*?kleur=

Disallow: /*&kleur=

Volgbaar maken van filters

De vraag die veel mensen zich nu waarschijnlijk terecht stellen is waarom je er nu precies voor zou moeten kiezen om een filter toch volgbaar te maken. De reden daarvoor is niet ver te zoeken. Het is namelijk zo dat bepaalde filters een zoekwoord combinatie vormen waar er wel degelijk op wordt gezocht. In een dergelijk geval is het de moeite waard om de filter volgbaar te maken en de pagina in kwestie te vullen met unieke, waardevolle content. In het eerder gestelde voorbeeld wordt er een combinatie gevormd van ‘rode kleding’. Op het ogenblik dat duidelijk wordt dat er hier veel verkeer op zit kan je de filter volgbaar maken. De gefilterde URL zal vanaf dat ogenblik niet meer worden gevormd door middel van een parameter, maar zal er als volgt komen uit te zien:

https://www.jouwwebsite.nl/kleding/rood/

Op de bovenstaande pagina kan er dan content worden geplaatst welke zich specifiek richt op het zoekwoord ‘rode kleding’. De gefilterde URL dient in deze situatie uiteraard niet te worden geblokkeerd in het robots.txt bestand. Ze dient echter net zo te worden ingericht dat deze eveneens in de Google index kan worden opgenomen. Om dit te kunnen realiseren moet de pagina wel over een zelfverwijzende canonical-tag beschikken. Bovendien moeten ook de meta robots als INDEX/FOLLOW worden ingesteld.

Zijn filters slecht voor je SEO?

In de basis is het mogelijk dat filters zeer negatief kunnen gaan uitpakken voor je SEO. Een teveel aan volgbare filters zorgt er namelijk voor dat er zomaar even honderden of zelfs duizenden pagina’s geïndexeerd dienen te worden. Het preventief voorkomen van een oneindig aantal combinaties is bijgevolg van bijzonder groot belang om de filters op een positieve manier in plaats van een negatieve uit te laten pakken voor je SEO.

Het realiseren van een grote hoeveelheid aan combinaties kan zorgen voor een ware explosie aan URL’s welke door Googlebot gecrawld evenals geïndexeerd dienen te worden. Dit zal ten koste gaan van het crawlbudget welke Googlebot voor jouw website heeft voorbehouden. Het enorme aantal aan te crawlen en indexeren pagina’s kan er voor zorgen dat het beschikbare crawlbudget reeds is opgebruikt nog voordat de meest belangrijke pagina’s aan de beurt zijn. Het spreekt voor zich dat, dat al in het geheel de bedoeling niet kan zijn. Omwille van deze reden is het altijd belangrijk om niet belangrijke filters op vlak van zoekvolume uit te sluiten voor indexatie.

Filters uitsluiten van indexatie

Je kan er op verschillende manieren voor kiezen om filters uit te sluiten voor indexatie, namelijk:

  • Door het inzetten van canonical-tags;
  • Door het gebruik van een robots.txt bestand;
  • Door noindex, follow/nofollow;

1.) Uitsluiten met canonical-tags

Door gebruik te maken van een canonical-tag kan er worden aangegeven van welke originele pagina de huidige pagina afkomstig is. Door gebruik te maken van een rel=canonical kan je eenvoudigweg aangeven wat nu precies de originele pagina is. De canonical-tag zal binnen de gefilterde pagina’s welke over dezelfde content beschikken als de categoriepagina aangeven dat de content werd gekopieerd en bijgevolg uitsluitend dienst doet als een functie voor de gebruikers van de website of webshop. Google zal de canonical-tag herkennen evenals de waarde van de gefilterde pagina herleiden naar het originele exemplaar. Een voorbeeld van een canonical-tag welke wordt ingezet voor een pagina die wordt gefilterd kan er als volgt uitzien voor de voorbeeldpagina https://www.jouwwebsite.nl/kleding/?kleur=rood:

<link rel=”canonical” href=” https://www.jouwwebsite.nl/kleding/” />

Door gebruik te maken van de bovenstaande canonical-tag wordt er voor gezorgd dat je aangeeft dat de pagina https://www.jouwwebsite.nl/kleding/?kleur=rood een duplicaat is van de oorspronkelijke pagina https://www.jouwwebsite.nl/kleding/. Dit is een efficiënte oplossing, maar je moet er wel rekening mee houden dat Google er voor kan kiezen om deze tag te negeren. Dit kan omdat het hierbij niet gaat om een harde regel, maar gewoon om een aanbeveling.

2.) Uitsluiten met robots.txt

Een tweede optie waar je voor kunt kiezen is het uitsluiten door middel van een robots.txt bestand. Hierin kunnen delen van de website worden geblokkeerd voor bots en spiders. Dit is interessant, want het maakt het mogelijk om je crawlbudget op een efficiëntere manier te beheren. Een filter kan in het robots.txt bestand worden geblokkeerd voor bots evenals spiders om deze te crawlen. Het gevolg hiervan is dat een zoekmachine er in principe niet voor zal kiezen om deze filter in haar index op te nemen. Het blokkeren van delen van je website kan interessant zijn, maar heeft als nadeel dat het wel bijzonder gevoelig is voor fouten. Omwille van deze reden wordt er eigenlijk vandaag de dag nog maar weinig van deze optie gebruik gemaakt.

3.) Uitsluiten met noindex, follow/nofollow

De derde mogelijkheid is om gefilterde pagina’s uit te sluiten van de Google index door gebruik te maken van de meta robots tags. Je kan er wat dit betreft voor kiezen om de meta robots tag voor een gefilterde pagina op noindex of nofollow te zetten. In allebei de gevallen zal de gefilterde URL worden uitgesloten van de index. Het verschil tussen de beide tags is afhankelijk van de gelinkte pagina’s. Wil je graag dat de Googlebot de interne linkstructuur op deze pagina’s zal volgen? Kies dan voor de follow-tag. Indien je dat liever niet wil kies je er voor om gebruik te maken van de nofollow-tag. Het nadeel van deze werkwijze is dat er middels een nofollow-tag geen concrete linkwaarde wordt doorgegeven aan de gekoppelde pagina’s. De kans dat er fouten worden gemaakt is dan ook bijzonder groot. Het is bovendien onnodig om te zeggen dat deze fouten enorme gevolgen kunnen hebben voor de organische positie waar je website of webwinkel over beschikt.

Welke filters laten volgen en welke niet?

Eén van de eerste zaken die je zal moeten doen is bepalen welke filters je nu precies wil laten volgen en welke niet. Om dit te kunnen bepalen dienen er twee belangrijke stappen te worden ondernomen, namelijk:

  1. Het in kaart brengen van de filters welke je graag volgbaar zou willen maken;
  2. Het in kaart brengen van het feit of je CMS dit toelaat of niet (en indien vereist met de webbouwer overleggen over welke stappen er dienen te worden ondernomen);

Hou er tot slot ook rekening mee dat je geen verschillende uitsluitingen gaat combineren. Het opnemen van zowel rel-canonical als een no index no follow heeft immers geen enkele zin en kan in de praktijk alleen maar voor fouten of misverstanden zorgen.

Comment Section

0 reacties op “Het inzetten van filters; waar rekening mee houden?

Plaats een reactie


*


This site uses Akismet to reduce spam. Learn how your comment data is processed.