Google geeft voorkeur aan HTML voor snelle indexatie

Eens in de zoveel tijd citeren we op de Webton blog Google’s Webmaster Trend Analyst John Mueller. Regelmatig doet hij namelijk interessante uitspraken in Google Hangouts of via andere sociale kanalen zoals Twitter. Dat was ook onlangs weer het geval, toen Mueller via het laatstgenoemde platform liet weten dat Google HTML de voorkeur geeft voor een snelle indexatie.

Google geeft voorkeur aan HTML voor snelle indexatie

Hoe werkt indexatie door Google’s crawlbot?

Het is een publiek geheim dat Google voor indexatie gebruik maakt van een zogeheten two-pass systeem. Dat betekent dat de crawlbot van de zoekmachine twee keer op een webpagina langskomt. De eerste keer indexeert de bot alleen de HTML-code en pas de tweede keer indexeert hij de gehele pagina.

Nu is dit op zich niet zo’n probleem, ware het niet dat er soms veel tijd tussen het eerste en tweede bezoek van de crawlbot zit. Het gebeurt geregeld dat Google’s bot pas weken na zijn eerste indexatie nog eens terugkomt. En dat betekent dat de zoekmachine de content van sommige websites pas weken na publicatie toont in de zoekresultaten.

Hoe hindert client-side JavaScript een snelle indexatie?

Voeg jij eens per maand een evergreen blogartikel toe aan je website? Dan is het niet zo’n ramp als de indexatie hiervan een aantal weken in beslag neemt. Publiceer je echter op dagelijkse basis nieuwe blogartikelen met actuele informatie, dan streef je logischerwijs naar een snellere indexatie. Anders zijn de artikelen als ze eenmaal in Google vindbaar zijn al niet meer actueel.

Je kunt de kans op een snelle indexatie door Google zelf aanmerkelijk vergroten. Dat doe je door belangrijke content op elke pagina in de HTML te plaatsen. Dit kan met name een probleem vormen voor websites die zwaar leunen op client-side JavaScript rendering. Hun content loopt namelijk het risico pas bij het tweede bezoek van de bot – en dus weken later – geïndexeerd te worden.

Waarom indexeert Google pagina’s dan niet in één keer?

Als je wekelijks nieuwe content publiceert en belang hecht aan een snelle indexatie, is het cruciaal om je content zoveel mogelijk in de HTML-code van je website te verwerken. Leunt je site op dit moment zwaar op client-side JavaScript rendering, dan kan het de moeite lonen om te investeren in een nieuw en professioneel webdesign.

Natuurlijk zou het makkelijker zijn als Google pagina’s in één keer zou indexeren. Maar, zo laat Mueller namens Google weten: dat vergt teveel rekenkracht en geheugen. Vooral als het om webpagina’s met client-side JavaScript rendering gaat. Beter is het daarom om je eigen website aan te passen, zodat deze beter geoptimaliseerd is voor een snelle vindbaarheid in Google.

Webton: specialist in webdesign & zoekmachine marketing!
Top