Zullen we bellen? Superleuk!

Laat je nummer achter, en laat weten wanneer het je uitkomt.
Dan bellen wij je terug!


x

Ben je al een tijdje bezig met SEO voor jouw website? Behaal je al goede posities en heeft het organische verkeer naar de site een mooie stijging doorgemaakt, omdat de basis goed is ingericht? Dan maken veel merken de fout om achterover te leunen, maar jij weet natuurlijk dat SEO nooit klaar is en wil meer. Daarom help ik je verder met 3 tips waarmee je de volgende stap kunt zetten in nog meer relevant verkeer en conversies.

Tip 1 | Data-analyse op zoekwoord niveau met KeywordHero

Zoals je gewend bent, geeft Google niet veel data prijs over via welke zoekopdrachten bezoekers precies op de website terechtkomen en wat vervolgens hun gedrag is. Met Google Search Console krijg je een tipje van de sluier, zodat je kunt zien op welke zoekopdrachten je bent vertoond, hoeveel klikken dat ongeveer heeft opgeleverd, het doorklikpercentage en de gemiddelde positie. Maar, het liefste wil je ook weten of bezoekers via deze zoekopdrachten landen op de juiste pagina en wat het gedrag daarna is.

Om de toegevoegde waarde van KeywordHero duidelijk te maken, laat ik hieronder het verschil in Google Analytics zien zonder deze tool en na de implementatie van KeywordHero.

Het standaard rapport in Google Analytics, wanneer je het organische verkeer wilt inzien per zoekwoord.

Het zoekwoord rapport in Google Analytics, wanneer je KeywordHero hebt geïmplementeerd.

Het grote verschil is dat Google Analytics standaard de zoekwoorden maar zeer beperkt laat zien en dat meer dan 90% van de zoekwoorden wordt weergegeven als (not provided) en (not set). Zo kun je geen analyses maken op zoekwoord niveau, terwijl dit met KeywordHero wél mogelijk wordt. Dan is namelijk vaak minder dan 15% (not provided) of (not set) en krijg je inzicht in de gebruikte zoekopdrachten van je doelgroep en hoe de gebruikersstatistieken daarna waren.

Welke analyses adviseer ik je om met deze mogelijkheden uit te voeren? Hieronder licht ik 2 voorbeelden toe, op basis van praktijkvoorbeelden van onze klanten.

Op welke zoekterm kunnen we ons vanuit conversie het beste focussen?

Als je als e-commerce partij al lange tijd bezig bent met SEO en maandelijks veel SEO-verkeer genereert, is het waardevol om de volgende stap te zetten en te focussen op conversie bij verdere optimalisaties als bijvoorbeeld het verhogen van de autoriteit. Onderstaand een waardevol voorbeeld van onze klant Dutch Designers Outlet waaruit blijkt dat het waardevoller is om te linkbuilden op ‘lingerie outlet’ dan op ‘lingerie sale’, omdat de conversieratio veel hoger is (3,43% t.o.v. 1,31%). Zo is de investering veel sneller terugverdiend en levert dit een hoger rendement op.

Wat is de conversieratio van zoekwoorden die landen op dezelfde bestemmingspagina? En waar kunnen we ons dus het beste op focussen?

Landen bezoekers per zoekopdracht wel op de juiste bestemmingspagina?

In onze data en keyword tracking tools zien we regelmatig verschuivingen in welke bestemmingspagina Google gebruikt voor een zoekopdracht, zeker rondom updates van het Google algoritme of bij brede zoektermen waarvan voor Google de zoekintentie niet helemaal duidelijk is. Voor informatieve websites als Rijkswaterstaat is dit nog niet zo erg, maar voor e-commerce websites kan dit negatieve resultaten hebben op de opbrengst.

Hieronder een oud voorbeeld van de Duitse webshop van Online Plastics Group, waar deze situatie zich voordeed. Wanneer er werd gezocht op ‘hpl’ of ‘hpl platten’ zagen we namelijk dat een relatief groot deel van de bezoekers landde op het blog ‘Was ist HPL?’. De conversieratio van dit blog was maar ongeveer 0,25%, terwijl de conversieratio van de productcategorie pagina ongeveer 1,50% was.

Veel zoekopdrachten landen op een blogbericht met een lage conversieratio, wat veel opbrengst kost.

Daarom hebben we Online Plastics Group geadviseerd om de content van het blog op de productcategorie te plaatsen en het verkeer om te leiden. Dit heeft de opbrengst voor HPL-producten vanuit SEO een enorme boost gegeven. En dat allemaal met data dat in Google Anaytics standaard niet beschikbaar is!

Tip 2 | Interne linkstructuur analyseren voor een betere autoriteit

Wat als je de content en techniek van je website tot in de puntjes hebt geoptimaliseerd, maar de goede posities in Google toch (nog) uitblijven? Dan heb je te maken met concurrenten die dit ook optimaal hebben ingericht, maar een hogere autoriteit hebben dan jouw site. Vanuit ons SEO-proces, zoals hieronder weergegeven, gaan we dan met linkbuilding aan de slag om de autoriteit te vergroten. Een stap die we echter vaak overgeslagen zien worden, is het analyseren van de interne links op de site.

Het SEO-proces van Copper IM: wanneer geef je welke SEO-werkzaamheden prioriteit?

De autoriteit bestaat uit twee factoren met beiden een score tussen de 1 en 100:

De analyse van interne links is belangrijk om de pagina-autoriteit op je belangrijkste SEO-pagina’s zo hoog mogelijk te maken. De domeinautoriteit is een soort vergiet waar je met interne links gaatjes in prikt, waarmee je zelf bepaalt naar welke pagina’s de pagina-autoriteit doorstroomt. Daarom analyseren we dit bij Copper IM altijd eerst, voordat we het aantal externe links gaan uitbreiden.

Met de tool Screaming Frog draai je eenvoudig een export van alle pagina’s op je website en de SEO-elementen van deze URL’s. Ook het aantal interne links dat een pagina krijgt exporteer je makkelijk naar een Excel-bestand. Het zal je nog verbazen hoeveel verbetering er op dit vlak te behalen is voor websites die al erg lang met SEO aan de slag zijn. Interne linking blijft vaak, onterecht, een ondergeschoven kindje. Het helpt je gebruiker met navigeren, maar zorgt ook voor meer rendement bij het verhogen van de autoriteit en het bouwen van content thema’s.

Veelgemaakte fouten in de interne linkstructuur

Tip 3 | Optimaliseren van crawl budget

De Googlebot heeft, wanneer het jouw website crawlt, een bepaald crawl budget om te bepalen hoe lang en intensief het jouw site doorloopt.

Wat is crawl budget?

Zelf omschrijft Google het crawl budget als volgt:

“Crawl budget can be described as the level of attention search engines give your site. This level of attention is based on how frequently they’d like to crawl and how frequently a website can be crawled.”

Het crawl budget van websites bestaat uit de volgende factoren:

Crawl rate = hoeveel crawling kan de website verdragen?

Crawl demand = hoe vaak wil de Googlebot de pagina crawlen?

Waarom is het optimaliseren van crawl budget belangrijk?

Het optimaliseren van het crawl budget is belangrijk, omdat zoekmachines je website minder efficiënt kunnen crawlen wanneer je een deel van je budget lekt.

Hoe kun je het crawl budget van jouw site optimaliseren?

Het optimaliseren van het crawl budget doe je eenvoudig gezegd door te zorgen dat de Googlebot geen tijd lekt aan pagina’s die voor jouw zoekmachine optimalisatie niet van belang zijn. Hieronder heb ik een aantal belangrijke optimalisaties, die nog steeds bij veel websites misgaan, voor je opgesomd:

Instellen van canonicals voor URL’s met parameters

Op websites (vooral webshops) met een interne zoekfunctie of filterfuncties verandert bij het gebruik van deze functies de URL, omdat er een parameter aan wordt toegevoegd. Hieronder zie je daarvan een voorbeeld, wanneer je bij onze klant Reclame Materialen het aanbod stoepborden filtert op kleur:

Om te voorkomen dat Google effort steekt in beiden pagina’s, terwijl alleen de content op de algemene stoepborden pagina belangrijk is, stellen we een canonical in op de URL met parameter. Met canonicals geef je zoekmachines een seintje dat de pagina’s qua content identiek zijn en wijs je naar de URL die Google wél moet crawlen. De andere URL slaat de bot dan over. Oftewel: je lekt geen crawl budget aan duplicate content. Zit er zoekvolume op de elementen binnen het filter (bijvoorbeeld productcategorie + kleur)? Maak dan unieke SEO-landingspagina’s voor deze subcategorieën.

Voorbeeld van de canonical die is ingesteld op de URL’s met parameters.

Robots.txt bestand

Een makkelijke manier om direct gedeeltes van jouw site die je niet in de index wilt hebben uit te sluiten, is het opstellen van een robots.txt bestand. Dit bestand wordt door de crawler gelezen voordat het begint met crawlen, om te checken of het delen van de site moet overslaan. Je kunt hier regels aan toevoegen, om bijvoorbeeld de admin omgeving en URL’s met parameters (bevat vraagteken) uit te sluiten.

Robots.txt bestand waarmee irrelevante delen van de site voor SEO worden uitgesloten van crawlen.

Redirecten van 404-pagina’s en duplicate content

Ook het juist instellen van 301-redirects speelt een belangrijke rol in het optimaliseren van crawl budget. Zorg dat je gebruikt maakt van deze omleidingen op de volgende manieren:

Zorg voor het juist redirecten van URL’s en voorkom duplicate content.

XML-sitemap

Om het voor de crawler zo makkelijk mogelijk te maken om je website te doorlopen, kun je deze een handje helpen met een XML-sitemap. Zorg dat je deze hebt gegenereerd en dat je deze upload op de URL ‘jouwdomeinnaam.nl/sitemap.xml’.

Check of je website een goede XML-sitemap heeft.

Laadsnelheid

De laadsnelheid van je website is een logische factor, hoe sneller de pagina’s zijn geladen des te meer pagina’s kan de Googlebot doorlopen binnen het crawl budget. Zorg daarom dat je dit optimaliseert en het budget daarmee zo optimaal mogelijk kunt benutten! Ons advies is om ervoor te zorgen de laadsnelheid van elke pagina onder de 2 seconden te houden.

Interne en externe links

Zoals eerder is uitgelegd, bepaalt Google het crawl budget mede vanuit de populariteit van een website en pagina’s. Zorg daarom voor een optimale interne linkstructuur met zoveel mogelijk interne links naar de belangrijkste pagina’s, zodat deze voorrang krijgen. Externe links, door middel van linkbuilding en content marketing, zijn voor zoekmachines nog sterkere signalen dat jouw pagina’s relevant en kwalitatief zijn. Hoe hoger de autoriteit, des te meer crawl budget zal de Googlebot aan jouw website besteden.