Zoekmachine optimalisatie wordt met het jaar moeilijker. Het algoritme wordt verfijnder, trucs uit de oude doos werken steeds een beetje minder goed en de concurrentie wordt feller. Aan het eind van het jaar zie je overal de standaard tips voorbijkomen: website snelheid, meer content en minder vaak het zoekwoord in je content gebruiken. In dit artikel bespreken we de tips die juist nét iets minder voorbijkomen. Veel leesplezier.
Tip #1: vertel Google meer over je website met gestructureerde data
Wat nou als er een mogelijkheid zou zijn om Google precies te vertellen wat wat is op mijn website.. hey wacht eens even!
Met gestructureerde data is het mogelijk om Google over bepaalde onderdelen binnen je bedrijf meer te vertellen. Alle onderdelen kunnen worden gevonden op schema.org, maar hier bespreken we er alvast een aantal.
Organization: vertel alles over je organisatie. Van het adres van het pand tot de naam van de moederorganisatie. Alles kan worden gedeeld met Google om de zoekmachines meer input te verschaffen hierover.
FAQ: laat je veelgestelde vragen ook directe in Google zien. Hiermee is het mogelijk om je snippet te vergroten en daarmee de CTR te verbeteren.
BreadCrumbs: geef Google een nóg beter idee van de hiërarchie van je website door broodkruimels (en de gepaste gestructureerde data) toe te voegen aan je website.
Top #2: link van één silo naar een andere silo op je website
Dit is vooral interessant voor de webshop-eigenaren onder ons. Heb je verschillende productcategorieën op je webshop? Dan draagt dit idee bij aan je conversie én SEO.
Verbind de verschillende productcategorieën met elkaar door middel van interne links. Deze interne links zorgen ervoor dat zowel de bezoekers als GoogleBot (de crawler van Google) makkelijker door de gehele website kan.
Ook bij B2B-websites is dit een mooie manier om verschillende diensten van het bedrijf te combineren. Hiermee is het mogelijk om upsells te stimuleren terwijl je op hetzelfde moment je hele dienstverlening aan de klant toont (in één oogopslag).
Tip #3: gebruik je Robots.txt
Dit is eentje die wij niet vaak genoeg (correct) zien worden ingezet. Wil je dat bepaalde pagina’s zowel niet worden gecrawld als geïndexeerd? Zet de pagina’s dan in de Robots.txt! Met de Robots.txt is het mogelijk om op een eenvoudige wijze de pagina’s uit sluiten en niet te laten crawlen en indexeren.
Het verschil met een no index tag gebruiken is dat de Robots.txt crawlen voorkomt. Dit bespaart crawlbudget (wat weer bepalend is voor hoe vaak Google langskomt op je website).
Dit artikel is geschreven door Ralf van Veen, SEO-specialist bij RalfvanVeen.com.