SEO advice example
Plan van aanpak ‘geanonimiseerd’
Introductie
In dit plan van aanpak staan concreet de aanpassingen die ik adviseer door te voeren voor het domein https://www.’geanonimiseerd’. Deze actiepunten zijn gebaseerd op de uitkomsten van de domein- en pagina-analyses en op aanvullend onderzoek na aanleiding van de geschetste problemen.
In dit plan van aanpak ga ik uitgebreid in op het probleem met betrekking tot filteren, sorteren en bladeren. Dit omdat ik dit vanwege de omvang en complexiteit niet bespreek in de toelichting op de domein- en pagina-analyses. Dit bespreek ik daarom in dit plan van aanpak zo duidelijk en compleet mogelijk. Ook draag ik hiervoor oplossingen aan.
Verderop in dit plan van aanpak staan in bulletpoints de oplossing voor andere problemen die in de domein- en pagina-analyses naar voren komen. De uitgebreide toelichting en oplossing daarvan staan in de toelichtingen op de domein- en pagina-analyses. Deze problemen zijn minder ernstig en soms gaat het ook gewoon om verbeterpunten die mij opvielen. Daarom lees je daar meer over in de toelichtingen op de domein- en pagina-analyses.
In het kort staat dit in het plan van aanpak:
Checklist to-do’s
Introductie gebruik canonical-tags
Verschil voor Google tussen filteren en sorteren
Oplossing voor gesorteerde pagina’s
Oplossing voor gefilterde pagina’s
Ontbreken rel=prev/next tags
Extra optimalisatiekans productcategoriepagina’s
Robots.txt-blokkade op .css en .js opheffen, waarom?
Wat te doen met de crawlsnelheid?
Toegevoegde waarde toevoegen Structured Data Markup
SEO-optimalisaties aan de hand van domein-analyse
SEO-optimalisaties aan de hand van pagina-analyse frontpage
SEO-optimalisaties aan de hand van pagina-analyse gefilterde pagina
SEO-optimalisaties aan de hand van pagina-analyse productpagina
Checklist
Deze checklist kan ‘geanonimiseerd’ gebruiken bij het uitvoeren van de SEO-optimalisaties.
To-do
Check!
Canonical-tags toevoegen op gesorteerde pagina’s
Bepalen welke filterpagina’s wél en niet geïndexeerd gaan worden
Te indexeren filterpagina’s SEO-geoptimaliseerd?
Robots.txt-blokkade op SEO-geoptimaliseerde filter opheffen
Niet te indexeren filters blokkeren in robots.txt
Niet te indexeren filterpagina’s op noindex zetten
Canonica-tags verwijderen in niet te indexeren filterpagina’s
Bladerpagina’s voorzien van rel=prev/next tags
Optioneel: schone filter-URL’s maken met Magento Improved Layered Navigation-plugin
Robots-txt blokkade op .js en .css opheffen
Crawlsnelheid verhogen
Structured Data Markup toevoegen
URL-diepte vergroten
Voorgestelde sitestructuur implementeren
Rijke 404-pagina maken
Aantal woorden frontpage uitbreiden naar minimaal 400
H3-kopjes op frontpage vervangen voor H2-kopjes
Social media-buttons toevoegen op front page
H1-kop productcategoriepagina’s optimaliseren
H2-koppen gebruiken op productcategoriepagina’s
Productteksten op productpagina’s uitbreiden en SEO-optimaliseren
H2-koppen gebruiken in producttekst
Gebruik canonical-tags
De oorzaak van het door ‘geanonimiseerd’ geschetste probleem met betrekking tot indexatie en daling in zoekposities lijkt deels te liggen in het (onjuiste) gebruik van canonical-tags op productcategoriepagina’s. Een voorbeeld van zo’n productcategoriepagina is: https://www.’geanonimiseerd’/inch-blue-babyslofjes.html. Graag neem ik in dit plan van aanpak de ruimte om het probleem te benoemen en om oplossingen voor te stellen. Normaliter gebeurt dit in de toelichting op de domein-analyse, maar omdat dit probleem op zowel het domein als op pagina’s van toepassing is, vind ik dat voor dit onderzoek niet de juiste plek.
Oplossing in het kort:
Gesorteerde pagina’s moeten:
Een canonical-tag krijgen naar ongesorteerde pagina’s
Gesorteerde pagina’s die ook gefilterd zijn, moeten een canonical-tag krijgen naar de ongesorteerde gefilterde pagina
Robots.txt-blokkade op sorteerparameters moet worden opgeheven
Gefilterde pagina’s worden door Google beschouwd als unieke pagina’s, maar kunnen onmogelijk allemaal geïndexeerd worden. Daarom:
Gefilterde pagina’s op noindex zetten
Uit te sluiten paramaters opnemen in robots.txt
Canonical van gefilterde pagina naar de ongefilterde pagina verwijderen
Canonical op gefilterde pagina die ook gesorteerd is moet ook worden verwijderd
Verschil tussen filteren en sorteren
Op de productcategoriepagina’s van het domein kun je sorteren en filteren. Dat zijn voor Google twee verschillende dingen:
Sorteren is het anders rangschikken van producten op de productcategoriepagina. Zoals sorteren op naam of prijs. Google beschouwt een gesorteerde pagina als dezelfde pagina als de ongesorteerde pagina.
Filteren is het tonen van een specifieke selectie producten op de productcategoriepagina. Zoals roze babyslofjes van Inch Blue in de lengte 13-14 cm. Google beschouwt een gefilterde pagina als unieke pagina.
Plan van aanpak voor sorteerpagina’s
Op het domein is het bij productcategoriepagina’s mogelijk om de volgende sorteringen toe te passen:
Sorteren op prijs: af- en oplopend
Sorteren op positie: af- en oplopend
Sorteren op naam
Aantal producten per pagina tonen: 12, 20 of 40
Tonen als: list, grid
Alle gesorteerde varianten van een productcategoriepagina beschouwt Google dus als precies dezelfde pagina als de ongesorteerde productcategoriepagina.
Voorbeeld:
Ongesorteerde productcategoriepagina: https://www.’geanonimiseerd’/leren-babyslofjes.html
Gesorteerde productcategoriepagina: https://www.’geanonimiseerd’/leren-babyslofjes.html?dir=asc&order=price
Google beschouwt deze gesorteerde productcategoriepagina (waarbij is gesorteerd op prijs) als niet wezenlijk anders dan de productcategoriepagina.
Probleem en oplossing voor sorteerpagina’s op dit domein
Sorteerpagina’s staan SEO-technisch deels goed ingesteld. Gesorteerde pagina’s hebben een canonical-tag naar de ongesorteerde pagina. Dat is goed. Maar er gaat ook iets fout. Het probleem is nu dat op gesorteerde pagina’s die ook gefilterd zijn, nu een canonical-tag staat naar de ongefilterde pagina. De oplossing is dat de canonical-tag moet verwijzen naar de gefilterde pagina.
Voorbeeld:
Ongesorteerde productcategoriepagina: https://www.’geanonimiseerd’/meisjes-slofjes.html
Gefilterde productcategoriepagina: https://www.’geanonimiseerd’/meisjes-slofjes.html?dir=asc&manufacturer=129
Gesorteerde, gefilterde productcategoriepagina: https://www.’geanonimiseerd’/meisjes-slofjes.html?dir=asc&manufacturer=129&order=name
Deze gesorteerde, gefilterde productcategoriepagina heeft een canonical naar de ongesorteerde productcategoriepagina, maar de canonical moet verwijzen naar de gefilterde productcategoriepagina. Dit gaat nu integraal mis en moet worden aangepast.
Canonical-tag toevoegen
In de -sectie van de gesorteerde pagina moet een canonical-tag toegevoegd worden naar de ongesorteerde pagina. In het voorbeeld van hierboven wordt de volgende code toegevoegd aan de -sectie van https://www.’geanonimiseerd’/meisjes-slofjes.html?dir=asc&manufacturer=129&order=name:
Aanpassingen in robots.txt
Wat er ook misgaat is dat sorteren in de robots.txt nu is uitgesloten van indexatie. Het gaat om de volgende sorteringsmogelijkheden:
Dir
Mode
Order
Limit
Zodra canonicals juist zijn ingesteld, moet de volgende passage uit de robots.txt geschrapt worden:
# No sorting
Disallow: /*dir=
Disallow: /*mode=
Disallow: /*order=
Disallow: /*limit=
Zodra dit is gebeurd, staan gesorteerde pagina’s SEO-technisch goed ingesteld.
Plan van aanpak voor filterpagina’s
Op het domein is het mogelijk om een heleboel verschillende filters toe te passen, zoals:
Sorteren op verschillende prijzen
Sorteren op verschillende merken
Sorteren op verschillende kortingen
Sorteren op verschillende maatvoeringen
Sorteren op verschillende lengtes
Sorteren op verschillende kleuren
Google beschouwt een gefilterde pagina als een unieke pagina. Die wordt dus ook als zodanig gecrawld en geïndexeerd.
Voorbeeld:
Ongefilterde productcategoriepagina: https://www.’geanonimiseerd’/leren-babyslofjes.html
Gefilterde productcategoriepagina: https://www.’geanonimiseerd’/leren-babyslofjes.html?color=11
Google beschouwt de gefilterde productcategoriepagina (waarbij is gefilterd op ‘blauwe leren babyslofjes’) als wél wezenlijk anders dan de ongefilterde productcategoriepagina
Probleem en oplossing(en) voor filterpagina’s
Het probleem is dat er op het domein ontelbaar veel filterpagina’s mogelijk zijn. Stuk voor stuk unieke pagina’s die, tenzij anders aangegeven, door Google geïndexeerd worden. Dit gebeurde volgens mij in oktober ook, toen het domein overbelast raakte door het vele aantal crawlbezoeken van Google.
In de regel is het de juiste keuze om Google alle filterpagina’s te laten indexeren. Ze zijn immers stuk voor stuk wezenlijk anders dan andere pagina’s op het domein. Het probleem van deze oplossing, is dat je deze pagina’s allemaal zou moeten optimaliseren. En dat er een heleboel gefilterde productcategoriepagina’s die (vrijwel) geen verkeer hebben. Optimaliseren is dan niet realistisch en ook de moeite niet. Het merendeel van gefilterde productcategoriepagina’s is dus niet interessant genoeg om te optimaliseren omdat er waarschijnlijk geen (of vrijwel geen) zoekvolume op is. Al het crawlbudget (de tijd die Google neemt om je website te indexeren) gaat dan op aan het indexeren van oninteressante filterpagina’s.
De oplossing waar nu voor is gekozen is dat alle filterpagina’s zijn uitgesloten van indexatie. Dit is maar gedeeltelijk een goede oplossing. Ja, heel veel filterpagina’s zijn niet interessant om te indexeren omdat er nauwelijks op gezocht wordt. Goede filterpagina’s lijden in deze onder de kwaden, want filterpagina’s waar wél op gezocht wordt zijn nu ook uitgesloten van indexatie. Bijvoorbeeld:
https://www.’geanonimiseerd’/leren-babyslofjes.html
Filter ik hier op het merk Inch Blue, dan krijg je een pagina die interessant genoeg is om geïndexeerd te worden. Namelijk ‘leren babyslofjes van het merk Inch Blue’. Dat is specifiek en ik kan mij voorstellen dat mensen hier op zoeken.
Toch is https://www.’geanonimiseerd’/leren-babyslofjes.html?manufacturer=6 uitgesloten van indexatie.
Dat is een gemiste kans.
De oplossing die ik aanraad is om bepaalde filters wel en bepaalde filters niet uit te sluiten van indexatie.
Niet interessant om te indexeren zijn wat mij betreft de filters:
Price
Korting
Maatvoering
Lengte
Wel interessant om te indexeren zijn wat mij betreft de filters:
Manufacturer
Color
Het mooie aan deze oplossing is dat je gestaag kunt werken aan de optimalisatie van je bedrijf. Je kunt er dus ook voor kiezen om eerst alleen de filter ‘manufacturer’ niet uit te sluiten van indexatie. Om vervolgens alle filterpagina’s van manufacturer te optimaliseren. Dat is in ieder geval mijn advies, maar ik heb geen zicht op de haalbaarheid van zo’n optimalisatie wat betreft interne mankracht hiervoor. Om een beeld te geven van de omvang van deze klus, het volgende voorbeeld.
Pagina’s waarop de filter ‘manufacturer’ aanwezig is:
https://www.’geanonimiseerd’/leren-babyslofjes.html, met 10 manufacturers
https://www.’geanonimiseerd’/meisjes-slofjes.html, met 10 manufacturers
https://www.’geanonimiseerd’/jongens-slofjes.html, met 10 manufacturers
https://www.’geanonimiseerd’/aanbiedingen.html, met 9 manufacturers
In totaal gaat het dan om het optimaliseren van 39 pagina’s. Nog steeds een redelijk grote klus, maar tenminste wél behapbaar. Zodra dat klaar is, kun je ervoor kiezen om ook de filter ‘color’ niet langer uit te sluiten van indexatie. Om vervolgens al die filterpagina’s te gaan optimaliseren.
Aanpassingen in robots.txt
Heb je manufacturer-filterpagina’s geoptimaliseerd voor SEO? Dan kun je in robots.txt de disallow voor dit filtertype opheffen. Dit doe je door Disallow: /*manufacturer= te schrappen onder het kopje # No filters.
Checklist voor filterpagina’s die niet geïndexeerd worden
Filterpagina’s die je niet wil laten indexeren door Google, omdat het niet de moeite waard is deze te optimaliseren. Wat moet daar mee gebeuren?
Disallow voor de filter die je niet wil laten indexeren opnemen in robots.txt (zoals nu gebeurt).
Filterpagina’s die je niet wil laten indexeren op noindex zetten (dit gebeurt nu nog niet).
Op filterpagina’s met een noindex moeten canonical-tags worden verwijderd. De pagina wordt immers niet geïndexeerd, dus de relevantie van de canonical vervalt.
Dubbelcheck op gesorteerde pagina’s van filterpagina’s: staan ook die op noindex en hebben ook die geen canonical-tags meer?
Plan van aanpak bladerpagina’s
Op het domein is het mogelijk om op productcategoriepagina’s te bladeren. De pagina bevat allemaal producten, maar die zijn, vanwege hun hoeveelheid, verspreid over verschillende bladzijden. Het is slim dit aan Google te laten weten door middel van rel=prev/next tags, omdat je hiermee Google laat weten wat de relatie is tussen een serie pagina’s. Hiermee kun je problemen met betrekking tot duplicate content voorkomen.
Dit is een voorbeeld van zo’n pagina:
https://www.’geanonimiseerd’/leren-babyslofjes.html?p=4
Bovenstaande URL is de vierde bladzijde van de originele URL:
https://www.’geanonimiseerd’/leren-babyslofjes.html
Het verschil tussen rel=prev en rel=next:
Rel=prev zet je op de link naar de vorige bladzijde
Rel=next zet je op de link naar de volgende bladzijde
Belangrijk: naast de prev- en next-tags krijgt de URL altijd een link naar zichzelf met canonical-tag.
Implementatie voorbeeld
https://www.’geanonimiseerd’/leren-babyslofjes.html krijgt de volgende codes in de -sectie:
Deze pagina krijgt dus geen rel=prev tag, omdat er geen voorgaande pagina is
https://www.’geanonimiseerd’/leren-babyslofjes.html?p=2 krijgt de volgende codes in de -sectie:
https://www.’geanonimiseerd’/leren-babyslofjes.html?p=14 krijgt de volgende codes in de -sectie:
Deze pagina krijgt dus geen rel=next tag, omdat er geen volgende pagina is
Lijst met pagina’s die bladzijdes bevatten
https://www.’geanonimiseerd’/petitoo-babyslofjes.html
https://www.’geanonimiseerd’/inch-blue-babyslofjes.html
https://www.’geanonimiseerd’/leren-babyslofjes.html
https://www.’geanonimiseerd’/meisjes-slofjes.html
https://www.’geanonimiseerd’/jongens-slofjes.html
https://www.’geanonimiseerd’/petit-bateau-romper-baby.html
https://www.’geanonimiseerd’/aanbiedingen.html
https://www.’geanonimiseerd’/merken.html
https://www.’geanonimiseerd’/baby-dutch-slofjes.html
https://www.’geanonimiseerd’/merken/baby-paws.html
https://www.’geanonimiseerd’/inch-blue-babyslofjes.html
https://www.’geanonimiseerd’/merken/i-wawa-html.html
https://www.’geanonimiseerd’/merken/minifeet-goedkope-babyslofjes.html
https://www.’geanonimiseerd’/merken/starchild.html
Niet alle merkenpagina’s staan hiertussen, omdat het aantal producten hier nog op 1 pagina bevat. Mijn advies is wel om dit goed in de gaten te houden. Zodra er meerdere bladzijdes nodig zijn voor alle producten uit die categorie, is het moment wel daar om prev/next tags te implementeren. Ik zou adviseren om, als dat mogelijk is, standaard in te stellen dat er rel=prev/next tags worden toegevoegd bij productcategoriepagina’s met meer dan 1 bladzijde.
Extra optimalisatiekans gefilterde productcategoriepagina’s
Tijdens het bestuderen van gefilterde productcategoriepagina’s viel het me op dat er een belangrijke kans niet wordt benut. Gefilterde productcategoriepagina’s resulteren in nietszeggende links.
Voorbeeld: https://www.’geanonimiseerd’/leren-babyslofjes.html?manufacturer=208
Deze filterpagina toont alle babyslofjes van het merk Petitoo. Hoe weet ik dit? Omdat ik dit in de filtermodule heb aangeklikt. Maar iemand die via Google zoekt en deze link in de zoekresultaten ziet weet dit niet. En Google begrijpt dit ook niet. Zij denken dat het merk ‘208’ heet. Een codenaam voor Petitoo op het domein. Dat zegt natuurlijk niets.
Maar daar kun je wel iets aan doen. Met de Magento Improved Layered Navigation plugin van Amnasty. Hiermee kun je schone filter-URL’s creëren. In plaats van:
https://www.’geanonimiseerd’/leren-babyslofjes.html?manufacturer=208
Krijg je bijvoorbeeld:
https://www.’geanonimiseerd’/leren-babyslofjes/petitoo
Deze link zegt Google én zoekers veel meer over de inhoud. Wat resulteert in een hoger doorklikpercentage (als de pagina geïndexeerd is) en mogelijk hogere positie. Omdat je aangaf graag aanvullende optimalisatietips te ontvangen, geef ik dit graag ter overweging mee .
Aanpassen robots.txt
Robots.txt-blokkade
De robots.txt kwam al een paar keer voorbij. Bij filterpagina’s gaf ik al een oplossing voor uit te sluiten en niet uit te sluiten filterpagina’s, maar ik kom er ook speciaal nog een keer op terug. Het valt me namelijk op dat alle Javascript en CSS is geblokkeerd. Dit wordt afgeraden, omdat.js en.css bestanden Google een beter beeld geven van hoe een website eruitziet. Dit wordt bevestigd door de robots.txt-tester van de Google Search Console. Hiermee kun je zien hoe Google tijdens het indexeren een pagina ziet. Omdat .js en .css zijn geblokkeerd, ziet Google een andere pagina dan de bezoeker. Dat is niet de bedoeling. Tenzij dit bewust is gedaan, raad ik aan de blokkades hiervoor op te heffen.
Zo zie ik de pagina https://www.’geanonimiseerd’/meisjes-slofjes.html:
Zo ziet Google dezelfde pagina:
Dat is dus nogal een verschil. Mijn advies is daarom om de blokkade op .css en .js in robots.txt op te heffen. Tenzij dit weloverwogen besloten was, maar ook dan vraag ik mij af of dat juist was.
Oplossing voor overbelasting site door crawlen
In de Questionnaire werd aangegeven dat de site werd overbelast door het grote aantal crawlverzoeken. Ook werd aangegeven dat de crawlsnelheid is aangepast. Hier heb ik nog even naar gekeken en dat is inderdaad de juiste oplossing. Zie ook de toelichting van Google hierop:
https://support.google.com/webmasters/answer/48620?hl=nl
Het is mijn indruk dat jullie wel werden verrast door het plotselinge aantal crawlverzoeken van Google. Mijn advies is om de crawlsnelheid te verhogen zodra de aanbevelingen rondom sorteren, filteren en balderen op productcategoriepagina’s weer te verhogen. Google slaat dan heel veel pagina’s over en ik verwacht dat jullie dan geen problemen ondervinden.
Toevoegen Structured Data Markup
Structured Data Markup is code die je toevoegt aan een pagina. Met deze code laat je Google weten wat voor type content er op de pagina te zien is. Vooral voor webwinkels is dit een ‘must’. Het geeft de zoeker veel meer informatie over de webwinkel, terwijl veel webwinkels dit juist niet gebruiken.
Structured Data Markup is code die zorgt voor ‘rijke’ zoekresultaten. Het komt dus alleen tot uiting in de zoekresultaten. Het zorgt voor ‘mooiere’ zoekresultaten, met meer informatie die beter gevisualiseerd is.
Zoek je op een bedrijf en dit bedrijf gebruikt ‘Organization’-markup? Dan krijg je meer informatie over dit bedrijf te zien dan wanneer het bedrijf deze markup niet gebruikt.
Datzelfde geldt voor producten. Als je zoekt op een productnaam, dan is er de kans dat je met jouw webwinkel op de eerste pagina komt te staan. Met Structured Data Markup vergroot je die kans. Sterker nog: zoekers krijgen het product al te zien. Mooi om te zien: met producten van het domein gebeurt dat nu al. Ze zien hoeveel het kost en hoe het product eruit ziet. Bewezen is dat dit leidt tot meer conversie. Structured Data Markup is daarmee voor webwinkels in mijn ogen essentieel om meer verkopen te genereren.
Deze Structured Data Markup is voor ‘geanonimiseerd’ relevant:
Organization: hiermee geef je meer informatie over je webwinkel
Product: hiermee geef je meer informatie over het product in de zoekresultaten en is het product ook te zien
Breadcrumbs: hiermee verbeter je de navigatie op de site en maak je het zoekresultaat mooier op
Sitelinks Searchbox: hiermee kan de zoeker via jouw Google-zoekresultaat al zoeken op producten in je webwinkel
Welke Structured Data Markup waar aan toevoegen?
Mijn advies is om Structured Data Markup integraal toe te voegen op de website:
Organization
Breadcrumbs
Sitelinks Searchbox
Op alle productpagina’s moet een Product-markup worden toegevoegd.
Hoe voeg ik Structured Data Markup toe?
Structured Data Markup voeg je toe in de -sectie van de pagina. Voorkeurscode is JSON-LD, omdat dit voor Google extra makkelijk indexeerbaar is.
Deze pagina helpt met het maken van de code: https://www.google.com/webmasters/markup-helper/u/0/
Via deze website geef je de URL door waarvan je de markup wilt maken. De site laadt de website en vervolgens kun je de gegevensitems gaan invullen door content op de productpagina te selecteren. Zodra je klaar bent met het toelichten van de informatie, genereer je via de pagina een JSON-LD code die je plakt in de -sectie van de productpagina zelf.
Het spreekt redelijk voor zich, maar op deze pagina staat precies beschreven hoe je dit het beste doet.
Overige optimalisaties uit de domein- en pagina-analyses
Uit de domein- en pagina-analyses kwamen meer opvallende zaken en optimalisatiemogelijkheden naar voren dan de to-do’s die hierboven uitvoerig zijn besproken. Hieronder som ik ze per analyse voor je op. Een uitgebreidere toelichting daarvan vind je in de betreffende toelichting die ik heb geschreven. Daar staan ook andere opvallende zaken die uit de analyses naar voren kwamen die niet resulteerden in een concreet actiepunt voor dit plan van aanpak
SEO-optimalisatie aan hand domein-analyse
Aan de hand van de domein-analyse komen een aantal concrete aanbevelingen naar voren voor het domein ‘geanonimiseerd’. Hieronder bevindt zich ook een aantal van bovengenoemde problemen die ik hier verder niet zal behandelen. Concrete aanbevelingen zijn:
URL-diepte vergroten
Voorgestelde sitestructuur implementeren
Rijke 404-pagina realiseren
SEO-optimalisatie aan hand van pagina-analyse front page
Concrete to-do’s die uit de pagina-analyse naar voren komen zijn:
Aantal woorden uitbreiden naar 400
Vervangen H3-kopjes voor H2-kopjes
Toevoegen social media-buttons
SEO-optimalisatie aan hand van pagina-analyse filterpagina
Concrete to-do’s die uit de pagina-analyse voor filterpagina’s (en productcategoriepagina’s in het algemeen) naar voren komen zijn:
Tekst toevoegen aan productcategoriepagina’s voor betere optimalisatie volgens geschetste opbouw in toelichting
H1-kop optimaliseren
H2-koppen gebruiken
SEO-optimalisatie aan hand van pagina-analyse productpagina
Concrete to-do’s die uit de pagina-analyse naar voren komen zijn:
Productteksten uitbreiden en optimaliseren volgens geschetste opbouw in toelichting
H2-koppen gebruiken in producttekst